世界今日报丨ChatGPT是否意味着“意见领袖”的终结?

时间:2023-03-20 14:03:12       来源:199IT

在过去两天里,我与那些“担心人工智能对自己的工作和生计造成影响的人”进行了 20 次对话。当然,我可能一直在寻求这些对话,因为作为一名学者和几家商业出版物的撰稿人,我也很焦虑!

创作者、艺术家、教练、程序员、医生、作家、专家和意见领袖们都在努力应对生成式人工智能(如 ChatGPT、DALL-E 和其他高级人工智能产品)对其工作、激情和收入的影响。

一方面,这看起来像是一种梦想成真,你可以受益于在人工智能的协助下更高效地工作。在人工智能的帮助下,似乎任何人都可以看起来像一个专家和创造者。毕竟,它可以写一份足以入围面试的工作申请,可以通过美国医疗执照考试和律师资格考试的部分内容,可以编写代码、生成文本和制作可销售的艺术作品,并(在某种程度上)提供心理健康治疗。


(资料图片仅供参考)

对于相关工作者来说,这一切都听起来太可怕了。深呼吸,现在,让我们诚实地谈谈焦虑,或者说是 AI 式焦虑(AI-xiety)。

1. 世界末日?

你感到的不安和存在的恐惧并不是没有根据的。顶级职业专家与早期职业者,以及介于两者之间的每个人都在努力解决这些焦虑的感觉。

“多年来,我们一直听说自动化和人工智能将大幅减少那些我们都不愿意做的枯燥乏味的工作,但只要我们‘有创造力’、‘有人性’,就不会有问题,”《长期游戏》(The long Game)一书的作者、Fast Company 撰稿人多里·克拉克(Dorie Clark)说,“可是,唉,ChatGPT 刚刚把我们打倒了,所以……显然我们需要一个新的应对计划。”

克拉克说,这个新计划应该包括建立人际关系网络,以及建立一个“强大而独特的声誉,让人们愿意选择与你合作”。建立一个包括各种技能的职业组合,也比以往任何时候都更重要。

然而,对许多人来说,不安的不仅仅是要制定新的职业规划。不安的感觉比这更加深刻。我的客户和同事正在与“对我们作为创造者、专家、作家、程序员、艺术家、医生、律师等身份的威胁”作斗争。

还有一个关于正义的问题。那些不顾歧视或残疾的耻辱,从贫困中振作起来努力工作的人,也将不得不比其他人更加努力地工作,以实现人生的转折。那些将自己的生命投入到创造知识产权和思想领导力的人,受到了人工智能支持的剽窃行为的威胁。这意味着,虽然有些焦虑可以通过调整和适应在个人层面上得到解决,但其他焦虑则需要集体和系统的解决方案。这些系统性的解决方案将集中关注人类伦理问题。

让我们来看看具体到内容创作的一些问题,如数字艺术和文案写作、专业知识和思想领导力,以及人类思想领导力在创造解决方案中的地位。

2. 谁将受到影响?

市场营销和个人品牌专家马克·谢弗(Mark Schaefer)有一个坏消息要告诉有抱负的内容创作者。他预测,人工智能对内容创作的影响,就像数字音乐制作的出现对音乐产业的影响一样。据谢弗的说法,那些失业的人一般都是优秀的商业化工作室音乐家,而精英音乐家、最受尊敬的词曲作者、制作人和技术人员则不会受到影响。谢弗的结论是,那些为企业网站提供“信息内容”或通用 SEO 内容的公司,可能需要考虑转变方向。克拉克对此表示同意。人工智能对市场营销和文案工作的威胁是真实存在的。这可能也适用于数字艺术、网站建设和许多其他职业。

这很糟糕,让人很痛苦。那些美化“颠覆”的人,还没有感受到“被颠覆”的全面打击,尤其是在没有社会或家庭安全网的情况下。当前的混乱造成的伤害非常之大,因为威胁远远超出了经济层面。机器人侵占了我们许多人喜欢做的事情,包括绘画、写作和创作——总而言之,有趣的事情。如果机器人取代清洁厕所的人,我丝毫不会反对。但现在的情况是,我们确实受到威胁了。

个人可能需要考虑,他们的创造力是否也可以通过“不太容易受到人工智能解决方案影响”的方式来表达。但从社会正义和道德的角度来看,只有人类才能回答的问题是:从这种颠覆中受益的企业是否有义务支持转行和技能再培训,以及什么样的社会安全网可以帮助防止职业中断演变成个人和社会的灾难。这是一个社会问题,因为任何一个部门的大量失业,都会对其他部门产生多米诺骨牌效应。

当然,并不是每种类型的创造性工作(如写作或艺术)都会受到同样的影响。例如,商业记者兼领导力教练娜塔莎·德索萨(Natasha D’souza)认为,人类的新闻工作者仍将很重要。“作为一名记者,抄袭就是职业自杀,要想脱颖而出,除了分析上的鞭辟入里和编辑上的出彩外,拥有独特的观点是必不可少的。”德索萨认为,在新闻业或任何依赖于人类视角和生活经验独特性的领域,人工智能工具永远无法取代人类的想象力和直觉。

我喜欢强调想象力和直觉,但是专业知识呢?

3. 谁是专家?

具有讽刺意味的是,虽然生成式人工智能可能降低了“称自己为专家”的门槛,但它却提高了成为真正的专家的门槛。ChatGPT 复制/粘贴可以帮助非专家去做到听起来很厉害,即使他们甚至都不懂这个主题。其结果是,“听起来很厉害”的非专家之间的竞争会加剧。

与此同时,要证明自己是一个真正的专家,很可能需要非凡的人类专业知识水平。托马斯·查莫罗-普雷穆齐克(Tomas Chamorro-Premuzic)是Fast Company 的撰稿人,也是即将出版的新书《I, Human》的作者,他认为,要成为一名真正的人类专家,需要在重要的主题方面钻研得更多,而不是去关心人工智能所借鉴的“大众智慧”。人类专家必须能够在“众包”知识中发现错误、偏见和虚假引用,从而产生比人工智能更准确、更有用的工作。他们还必须能够把知识付诸实践。

对于那些雇佣专家(比如顾问),但对千篇一律的建议不感兴趣的人来说,德索萨建议寻求有深度的人类专业知识。此外,这种专业知识应该“经过精心策划,并应用于特定的商业环境或目标。”

德索萨还认为,人工智能永远无法取代真正的思想领袖。

4. 思想领袖还会是人类吗?

思想领袖(Thought leaders,一个不幸被过度使用和误用的术语)通过添加独特的视角、创造新的理解和影响他人的想法,来建立起专业知识。他们的专业知识不仅深厚、基于研究和经验,而且还浸透着激情和信念。

丹尼斯·布罗索(Denise Brosseau)是《准备好成为思想领袖了吗?》(Ready to Be a Thought Leader?)一书的作者,他认为,ChatGPT 和类似的高级人工智能,可能“在很长一段时间内,对于有志于成为思想领袖的个人和组织来说,是最好的工具之一,也是最糟糕的工具之一。”它可以提供与任何主题相关的主流观点的集合。如果你仅把这个集合作为出发点,那么 AI 就是一个有用的工具。但“如果你只是重写一两个句子,加上一个吸引人的标题和标签,并把自己的名字贴上去,说这是原创内容,那么我们的情况就会变得更糟了。”制造噪音和思想领袖是不同的。

但是,在人工智能导致的问题中,思想领袖真的“安全”吗?对此,我有个人和社会层面的担忧。

5. 抄袭问题

抄袭和剽窃是人工智能的一个大问题。那些花了几十年时间发展自己的专业知识、工艺和知识产权的人,可能特别容易被一个不知名的人工智能“专家”窃取一生的工作成果。

是的,抄袭,包括技术辅助的抄袭,已经存在很长时间了。但人工智能让抄袭的规模变得前所未有。现在,一个人一生的工作成果不仅可能被另一个人剽窃,还可能被机器人商品化。一想到如此多的人类热情和努力被剥夺,却没有得到补偿或承认,就令人恐惧和愤怒。但解决人工智能使用的伦理问题,是由(人类)是非观推动的人类领导力发挥至关重要作用的领域之一。

6. 人类的领导力是被需要的

如果没有人类的领导,生成式人工智能的扩散很可能导致经济和人道主义的末日场景。在道德决策方面的领导力、对人类后果的考虑以及防止错误信息,是最需要人类和以人为本的思考的一些领域。

1. 保护人类生命和社会正义

大公司似乎认为以“人工智能驱动生产力”的名义裁员是可以接受的,人工智能公司的负责人认为,失业的风险“不会大于积极的后果”。然而,谁能从中受益呢?在这些计算和比较中,是否考虑到了“失业与自杀风险增加 2 倍至 3 倍呈相关关系”?人工智能公司的利润是否盖过了人类生命损伤的风险?

人工智能使用的许多伦理问题都需要人类来解决。例如,是否考虑过人工智能可能会将个人和家庭从中产推向贫困,从而进一步加剧本已严重的经济不平等?那么,与失去生计和职业身份有关的精神健康危机的风险,是否被考虑到了呢?眼下的这一危机很容易地会超过疫情期间的精神健康危机。

人工智能可以帮助分析失业和经济变化的多种情况,以及研究普遍收入和再培训的可能性,以减轻对人类的伤害。然而,只有道德驱动的人类才能做出符合人类福祉的决策。

2. 防止虚假信息,找到事实和真理

生成式人工智能的一个很少被讨论的缺点是,它有可能使虚假信息成倍增加,并以牺牲人类福祉为代价,给那些为商业或政治议程服务的观点提供特权。科技行业领袖顾问、《独角兽之前的大象》(Elephants Before Unicorns)一书的作者卡罗琳·斯托克斯(Caroline Stokes)指出了潜在的危险,“人工智能会增加错误的“信息”,而人们又没有正确地研究、评估和核查事实。那么,错误的信息被说得越多,它就越能成为“真理”。

理解真理的本质,以及将“流行的、经常被重复的东西”与真理区分开,是人类面临的困境。解决这个问题需要人类的研究和批判性思维,人类可能会倾向于将这些技能外包给 ChatGPT 之类的技术。

但是,即使人们愿意并能够付出努力,ChatGPT 的不透明性和缺乏参考信息来源,也会加剧建立真相的困难程度。

3. 请提供参考资料

还记得“维基百科被视为教育威胁”的时光吗?现在,维基百科看起来非常“圣洁”,有参考文献,有很多方法可以进行标记、质疑和纠正错误或有偏见的条目,还有对编辑的追踪。

相反,ChatGPT 这个黑匣子里的信息来源对用户来说是无法追踪的。当被要求提供参考资料时,ChatGPT 会输出不存在的、编造的专家、书籍和研究。(是的,我甚至和它就我专业领域的编造资料发生过争执。)ChatGPT 表示,作为人工智能,它不可能编造参考资料。就算我相信它,但这又引出了另一个问题:它是用什么训练的?

在某些方面,使用适当的资料但不注明出处,可能是一个比编造参考资料更大的问题。生成式人工智能对受版权保护的艺术、文字和其他知识产权的使用,是一个重大的伦理问题和潜在的法律问题。如果 ChatGPT 为完成你的任务而抄袭,那么谁是抄袭者?使用没有署名能力的人工智能工具是否完全合乎道德?

具有讽刺意味的是,生成式人工智能似乎迫切需要人类的思想领导力、深入的研究和批判性思维。我们既可以选择破坏性地引导自己的焦虑,也可以选择建设性地引导自己的焦虑,将其演变成关怀和同情。我们有责任不把属于人类的、符合道德和事实的决策交给人工智能。

译者:Jane

来正:神译局

关键词: