我一直尝试在日常工作中使用人工智能助手。但我认为,让它们难以发挥全部潜力的最大阻碍是,它们经常犯下明显的错误。
我亲身经历的一次错误是,我在采访一个残疾人时使用了人工智能转录平台,但它生成的采访摘要坚持认为我们的对话是关于自闭症的。
这是人工智能“幻觉”问题的一个例子:大型语言模型会虚构和编造很多东西。
最近,我们看到了一些规模更大的人工智能问题(故障)。最近的一次荒诞情况是,谷歌的 Gemini 模型拒绝生成带有白人的图像,尤其是白人男性。
相反,它可以给用户生成黑人教皇和纳粹女兵的图像。滑稽的是,谷歌一直试图让其模型的输出不那么带有偏见并以此标榜自身,但事与愿违,这家科技公司很快发现自己卷入了美国文化战争的漩涡中心。
保守派批评者和埃隆·马斯克指责它有所谓的“觉醒(woke)”偏见,没有准确地代表历史。谷歌道歉并暂停了该功能。
在另一起事故中,微软的必应聊天机器人告诉《纽约时报》的一名记者离开他的妻子。客户服务聊天机器人也不断给它们服务的公司带来各种各样的麻烦。
例如,加拿大航空公司最近被迫根据其客服聊天机器人给出的政策向客户退款。类似的“被坑”的公司还在增加。
科技公司正急于推出人工智能驱动的产品,尽管有大量证据表明我们很难完全掌控这些产品,而且它们的行为往往是不可预测的。
之所以出现这些奇怪的行为,是因为没有人确切知道深度学习是如何工作的,甚至没人 100% 知道为什么它们能奏效,而深度学习是当今人工智能繁荣背后的基础技术。
这是人工智能领域最大的难题之一。我的同事威尔·道格拉斯·海文(Will Douglas Heaven)刚刚发表了一篇文章,深入研究了这一问题。
最大的谜团是,谷歌 Gemini 和 OpenAI 的 GPT-4 等大型语言模型是如何学会那些未经训练的事情的?你可以训练一个语言模型用英语解决数学问题,然后向它展示一些法国文献,它就可以学会用法语解决数学问题。
威尔写道,这些能力与经典统计学(理论)背道而驰,后者为预测模型的行为提供了最好的解释。
我们很容易将源于无知的认知误认为是魔法。就连“人工智能”这个名字,都在一定程度上误导了我们:让人们误以为它拥有了所谓的、类似人类的智能。
语言模型看起来很聪明,因为它们通过预测句子中的下一个单词来生成文本,跟人类写出来的很像。
但这项技术并不是真正的智能,称其为智能会微妙地改变我们的期望,我们会默默地夸大这项技术的真实水平。
不要相信这些模型是无所不知的,也不要认为它们生成的东西就是事实,更不要觉得它们几乎可以胜任我们期望的任何工作。这些都是科技领域流行的营销陷阱。
由于它们的不可预测性、无法控制的偏见、安全漏洞和编造事实的倾向,它们真正能创造的价值极为有限,至少目前是这样。
它们可以帮助人类集思广益,也可以搞出一些糗事,作为我们茶余饭后的乐子。
如果你了解这些模型多容易出现小故障和失败,那么你就应该知道,向它们提供你的信用卡信息、隐私数据或者在任何事关重大的情况下使用它,都不是什么好主意。
哈佛大学计算机的科学家博阿兹·巴拉克(Boaz Barak)表示,人工智能研究领域目前仍处于早期阶段。他目前被借调到 OpenAI 的超级对齐团队。
他表示,该领域的许多人将其与 20 世纪初爱因斯坦提出相对论时的物理学进行了对比。
(来源:AI 生成)
如今,该领域的焦点是模型如何产生它们所做的事情的,但我们还需要更多的研究来了解它们为什么会这样做。
在我们更好地了解人工智能的内部原理之前,还会有更多奇怪的错误和大量的炒作,而我们将不可避免地面对这些问题。
作者简介:梅丽莎·海基莱(Melissa Heikkilä)是《麻省理工科技评论》的资深记者,她着重报道人工智能及其如何改变我们的社会。此前,她曾在 POLITICO 撰写有关人工智能政策和政治的文章。她还曾在《经济学人》工作,并曾担任新闻主播。
支持:Ren
运营/排版:何晨龙