• QQ空间
  • 回复
  • 收藏

被AI取代的人类作家

东方头条 2019-10-16 14:25:52 科技

猎云网注:John Seabrook自1989年以来一直为《纽约客》撰稿,并于1993年成为特约撰稿人。他已经出版了四本书,包括最近出版的《The Song Machine: Inside The Hit Factory》。

我低头看了看我的左手拇指,它还在Tab键上。我做了什么?我的电脑成为我的合著者了吗?这是人工智能向前迈出的一小步,但对我自己来说,这也意味着我后退了一步吗?

我脖子后面的皮肤刺痛了,这是我对机器人专家所说的“恐怖谷效应”的一种不自觉的反应。所谓“恐怖谷”,指的是血肉之躯和过于人性化的机器之间的临界距离。

几天来,我一直试图忽视Smart Compose提出的建议。这是谷歌于2018年5月向15亿使用Gmail的用户推出的一项功能。Smart Compose会在你打字的时候给出一些句子结尾的建议,基于你所写的单词,以及数百万Gmail用户在这些单词后面添加的单词。“predictive text”可以猜测出你的写作思路,为了节省你的时间,它会在你尚未完成的句子后面用灰色的单词给出AI的建议。你只需要点按Tab键就行了,这样一来就省去了二十多次键盘敲击,而且在我个人的例子中,我第一次使用这一功能就用AI写出了一个完整的句子。

谷歌Smart Compose的负责人Paul Lambert告诉我,这个产品的创意来自于代码编写,软件工程师常使用这种语言编写计算机程序。代码由相同序列的长字符串构成,工程师会依赖于一种被他们称为“代码补全器”的快捷方式。谷歌认为,类似的技术也可以为G Suite的商业用户减少电子邮件编写时间。McKinsey的一项研究显示,如今,普通上班族一天中有四分之一的时间在收发电子邮件。Smart Compose每周为用户节省20亿次按键操作。

用户可以轻易地选择退出Smart Compose,但我选择了继续使用,尽管它经常分散我的注意力。我被AI似乎知道我要写什么的状态迷住了。也许是因为写作是我的天职,我倾向于把我写的句子看作是我最初思想的个人表达。因此,令人不安的是,AI能够准确地预测我的意图,甚至有些时候,AI似乎比我有更好的主意。

然而,直到现在,我总是通过给这句话打一个句号来结束我的思考,就好像我是在捍卫人类独有的写作能力。我很乐意让谷歌帮我计算出从布鲁克林到波士顿的最快路线,但我如果允许算法来为我代笔我的想法,那么在多久的将来,它就可以开始替代我的一切思考活动了呢?

我也曾尝试过Smart Reply,这是Smart Compose的姊妹技术。根据邮件的内容,它为发件人的电子邮件提供了三种自动回复的菜单。在回复编辑对我的一篇文章的评论邮件时,我点了一下“明白了!”,但事实是我真的不明白,但回复菜单上没有这个选项。自动回复之后我感到有点愧疚,就像我是随便回了一封公函。几天以后,我的编辑也回了我的一封邮箱,简简单单的“收到了!”,他真的收到了吗?

除了美国总统可能是个例外,我和几乎所有发短信或推特的人一样,长期以来都依赖于拼写检查和自动纠错,而这些都是预测性文本的有限应用。我的拼写很糟糕。现在,拼写检查器在文字处理软件中无处不在,我甚至不再尝试拼写任何东西。我只要让我打的字母靠近我想要的单词,然后让机器猜出我想打的是哪个单词,就行了。

但Smart Compose远不止是拼写检查,它不是在纠正我头脑中已经形成的话语,它是在利用深度学习的预测能力把我还未想到的内容带给我。机器学习是在大型数据集中计算概率的复杂方法,它几乎是近年来所有非凡进步的基础,包括导航、图像识别、搜索、游戏和自动驾驶等等。在这种情况下,它会根据Gmail.com一年来发送的电子邮件中的单词模式,进行数十亿次闪电般的概率计算。

Lambert解释说:“在你写作的任何时候,我们都会对接下来可能会出现的无数个单词进行猜测。为了做到这一点,人工智能会将许多不同的概率计算因素考虑进你正在写的电子邮件中。你每次插入一个新词,系统都会更新状态并重新处理。例如,如果你在周五写了一个‘祝你’,那么高概率的预测会是‘周末愉快’。”

虽然Smart Compose通常局限于预测下一个短语,但人工智能可以做的更多。Lambert指出,这样做的代价是准确性。“我们离原文越远,预测就越不准确。”

然而,当我坐在键盘旁,我能感觉到恐怖谷效应一直围绕着我。并不是说我害怕Smart Compose准确定预测了我的想法,事实上,它并没有。令人毛骨悚然的是,机器比我想得更周到。

今年2月,人工智能公司OpenAI宣布,其名为GPT-2的人工智能作家的完整版将推迟发布,原因是因为这台机器太擅长写作了。批评家们认为OpenAI是在装逼,但这一举动实际上符合了OpenAI的一贯作风,徘徊在自相矛盾的边缘。正如OpenAI的首席技术官Greg Brockman所说,一边尽可能地推进AI的更新发展,一边准备应对AI可能带来的潜在风险。

OpenAI成立于2015年,彼得·泰尔和Reid Hoffman等人为OpenAI提供了种子资金。OpenAI创始人的想法是赋予非营利组织以专业知识和资源,与私营企业竞争,同时使其成果具有开源性,这样一来就可以阻止某几家企业坐拥无法估量的未来新世界。Brockman希望通过OpenAI确保人工智能为人类带来的利益得到尽可能广泛的分配。

到目前为止,OpenAI的项目包括一个游戏人工智能,今年早些时候在多人在线战略游戏Dota2上击败了世界上最好的人类团队。开源的电脑游戏为人工智能设计师提供了几乎无限的可能性,使他们成为有价值的试验场。该公司还为一只机械手开发了软件,这只机械手可以通过自学操作不同形状和大小的物体,不需要任何人类编程。与其他项目一样,GPT-2的设计初衷是为了推动一种散文写作机器的发展。

尽管OpenAI表示,它仍然致力于分享其研究成果。但它在3月份成为了一家有限合伙企业,以吸引投资者,从而使该公司的有财力跟上“计算”的指数增长,而“计算”是支持深度学习神经网络的终极动力燃料。这些“神经网络”本质上是由连接在一起的调光开关组成的,因此,就像我们大脑中的神经元一样,当它们受到刺激时,它们可以互相刺激。在大脑中,刺激是一些微量电流;在机器中,它是数据流。训练像GPT-2这样大的神经网络是昂贵的,部分原因是运行和冷却为云提供动力的地面“服务器场”所产生的能源成本。Emma Strubell领导的一项研究显示,通过训练一个巨大的神经网络产生的碳足迹,大致相当于五辆汽车的终生排放量。

OpenAI表示,未来几年它将需要投资数十亿美元。计算机的发展速度甚至比摩尔定律所预计的还要快,摩尔定律认为计算机的处理能力每两年翻一番。芯片设计、网络架构和基于云的资源方面的创新使得每年可用的计算总量增加了10倍——2018年,是2012年的30万倍。

因此,神经网络可以做各种各样的事情,这些事情是未来学家早就预测到的,但直到最近才得以实现。机器翻译一直是人工智能研究人员的一个梦想,但直到三年前,机器翻译还很容易出错。自2016年改用神经机器翻译以来,谷歌翻译已经开始在某些领域取代人工翻译,如医学领域。

OpenAI的首席科学家Ilya Sutskever今年33岁,是人工智能领域最受尊敬的年轻研究人员之一。监督学习(Supervised learning)曾经是训练神经网络的方式,包括给训练数据加上标签,这是一个劳动密集型过程。在无监督学习中,则不需要标记,这使得该方法具有可扩展性。例如,该机器不是学习从标有“猫”的图片中识别猫,而是通过反复试验来学习识别猫的像素模式。

GPT-2运行在一个比OpenAI的第一语言模型GPT大十倍的神经网络上。在OpenAI宣布推迟发布完整版之后,它在网络上发布了三个功能不那么强大的版本。该公司的研究主管、计算神经学家Dario Amodei向我解释了保留完整版本的原因:“如果你看到一篇文章,它就像是一张证明,证明有人类参与了其中。而现在它不再是一个真正的人类参与的证明。”

科学家对人类如何习得口语有不同的看法:许多人倾向于认为我们的语言技能是基于进化和生物的基础,而不是我们是“白板”的观点,但所有人都同意我们主要通过听来学习语言。写作当然是一种后天习得的技能,而不是一种本能——多年的专业经验告诉我,如果有什么本能的话,那就是浏览Twitter,或者做其他任何事情来避免不得已的写作。与写作不同,演讲不需要多次草稿才能“奏效”。“不确定、焦虑、恐惧和精神疲劳都会伴随写作,另一方面,交谈是很容易的,通常是愉快的,而且感觉上几乎是无意识的。

大英图书馆最近的一次关于文字的展览将楔形文字的出现追溯到公元前4000年在美索不达米亚。贸易变得复杂了,人们记不住所有的合同细节,所以他们开始把合同写下来。在随后的几千年里,文学艺术的发展远远超过了贸易记事的发展。众所周知,苏格拉底不赞成文学作品对记忆的有害影响,他把写作称为“看得见的语言”——我们知道这一点是因为他的学生柏拉图在老师死后把它写了下来。由语言学家Linda Flower和心理学家John Hayes提出的一个更现代的定义是“认知修辞”——即用文字思考。

1981年,Flower和Hayes为大脑在写作时设计了一个理论模型,他们称之为认知过程理论。近四十年来,它一直是文学创作的典范。

很少有关于写作时大脑的真实生理状态的科学研究。从历史上看,科学家们认为语言处理涉及到大脑的两个部分:一个负责解码输入,另一个负责生成输出。根据这一经典模式,单词是在Broca区形成的,对大多数人来说,它位于大脑左半球的前部,语言则是在Wernicke区被理解的。将Broca区和Wernicke连接起来的就是一个神经网络:一个由数十亿神经纤维组成的粗而弯曲的神经束,它整合了语言的产生和理解。

近年来,使用成像技术的神经科学家开始重新思考经典模型的一些基本原理。德国格赖夫斯瓦尔德大学的神经学家Martin Lotze领导了一项为数不多的专门针对写作而非一般语言使用的影像学研究。Lotze设计了一个小桌子,让研究对象可以在扫描大脑的同时手写。研究人员让受试者从一篇短篇小说中选择几句话逐字逐句地抄下来,以建立一个基准,然后让他们进行60秒的“头脑风暴”,然后再让他们“创造性地”再写两分钟。Lotze指出,在测试的头脑风暴部分,磁成像显示感觉运动和视觉区域被激活,创造性写作一旦开始,这些区域就被双侧背外侧前额叶皮层、左侧额下回、左侧丘脑和颞下回所连接。简而言之,写作似乎是一种全脑活动——可以理解为一场头脑风暴。

在OpenAI,我问过Sutskever这个问题。他解释说:“当我说这句话时,我非正式地使用了‘理解’一词。我们真的不知道一个系统理解了一些东西意味着什么,当你看到这样一个系统时,真的很难判断。我的意思是:如果你训练了一个系统,它能很好地预测下一个单词,那么它就应该能理解。如果它不能很好地预测它,它的理解将是不完整的。”

然而,Sutskever补充说,“研究人员不能否认,当神经网络变得和大脑一样大时,我们就有可能达成理解。”

据估计,大脑中有1000亿个神经元,它们之间有数万亿个连接。完整版本的GPT-2所运行的神经网络大约有15亿个连接,即“参数”。以目前计算机发展的速度,神经网络可以在五年内与大脑的原始处理能力相匹敌。为了帮助OpenAI率先实现这一目标,微软在7月宣布,作为独家计算合作伙伴的一部分,它将向OpenAI投资10亿美元。

如果GPT-2的一些更晚的迭代,远比这个模型强大,可以与程序系统混合,这样它就能够随意地写作,区分真实与虚构,同时从其深度学习的源泉中汲取知识,那会怎么样呢?人们可以想象一位Joycean式的超级作家,他可以掌握任何一种写作风格,能写出令人毛骨悚然的悬疑小说,以及大量的研究传记,同时可以对巴以冲突进行细致的分析。那么人类会停止写作吗?因为那时候所有的读者都会成为AI作家的粉丝,然后又会怎么样呢?

在上一段话的提示下,GPT-2预测了下一句话:“在某种程度上,人类将取得进步。”