虽然写作涉及的知识技能复杂,只能靠口传心授,很难机械化运作。
不过,当手机上的输入法时常提示人们想要打出的下一个词汇时,或许离把写专栏交给人工智能的那一天已经不远了。
但写作是一门玄乎的手艺,其涉及的知识技能复杂,只能靠口传心授,很难机械化运作,就像说相声或是吹糖人儿。
很多写手认为,被计算机逼下岗的故事似乎永远不可能发生。不过,当手机上的输入法时常猜出人们心中想要打出的下一个词汇时,或许离把写专栏交给人工智能的那一天已经不远了。
无需过多训练就能创作散文
去年7月,位于旧金山的人工智能研究实验室OpenAI开始有限制地开放一款非常厉害的软件——GPT-3。这是OpenAI迄今为止创建的最强大的“语言模型”。
所谓“语言模型”,是指经过大量文本训练的人工智能系统。有了足够的文本和处理能力,它就会开始学习词汇之间的概率性联系。更简单地说,GPT-3可读可写,且水平不低。
像GPT-3这样的软件或许会非常有用。当机器能够以人类的语言来理解和回应人类,我们就可以获得一名数字助手、一个更逼真的游戏角色、一位为学生度身定制的虚拟老师,甚至只需将你的想法告诉机器,就可以创建一款软件。
不过,目前OpenAI仅向数百名软件开发人员提供GPT-3的访问权限。有人在推特上展示了GPT-3的许多奇妙功能。
语言模型通常需要针对专门用途进行特定训练,但GPT-3是个例外,它无需过多额外训练,就能生产出独创性的、连贯的、有时甚至是事实性的散文。除了散文,它还会写诗句、对白、计算机代码等等。
比如说,我们给GPT-3一个自然语言提示“我特此辞退刘看山先生”,软件将在余下的文本中填充进高度接近人类在接收到此类文字后可能想到的话语。
GPT-3的灵活性是一个关键的进步。OthersideAI公司的CEO马特·舒默正在利用GPT-3建立一种智能电子邮件服务:机器会替你写电子邮件,你只需录入一些需要表达的要点,它就可以据此创建一封完整、细致、礼貌的回信。
另一家公司则借助GPT-3在文本冒险游戏中构建逼真的交互式角色。他们发现,GPT-3创造的文本如行云流水般连贯,极具想象力,甚至还透着荒谬的趣味。
作家斯图·福蒂尔用GPT-3创作了一个滑稽的讽刺作品。他给软件输入了一个奇怪的提示:“下面是一段访谈的部分笔录。在访谈中,巴拉克解释了他为何被终身禁入金坷垃自助餐厅。”接着,GPT-3以此为核心思路,填充了采访的其余部分。
谨慎预防滥用带来的欺诈行为
然而,像GPT-3这样的软件存在令人恐惧的滥用隐患。
如果计算机能产生大量仿佛出自人类手笔的文本,我们该如何区分人和机器?在一份详细介绍GPT-3功能的研究论文中,作者列举了一系列潜在危险,包括虚假信息、垃圾邮件、网络钓鱼、滥用法律和政府程序、学术不端,以及其他欺诈行为。
另一方面,由于GPT-3的训练素材来自网络,所以它制造的文本可能存在许多社会偏见。如何确保它的内容不带有偏见和歧视,也是一个重要问题。
此外,GPT-3并不擅长分辨虚构和事实。AI研究者珍妮尔·沙恩说,她把自己原创的三个关于鲸鱼的句子丢给了GPT-3,结果它填充了一堆“独立创作”的文本——可那些话全都狗屁不通,一点儿不符合鲸鱼的客观事实。
值得一提的是,对于这些隐患,OpenAI已在采取预防措施。
目前,该公司仅允许少数人使用此系统,也正在对每个基于GPT-3的应用程序进行审核。尤其重要的是,他们禁止GPT-3冒充人类,即由GPT-3生产出的所有文字,都必须让阅读者知道该内容是由机器编写的。
与此同时,OpenAI还邀请外部研究人员来对系统偏差进行校正。目前,这些预防措施看起来可能足够了。但GPT-3模仿人类语言的水准之高,还是让不少文字工作者感觉后背发凉。或许不久之后,它真的会让许多写手无所事事。
图源:视觉中国