游客发表

因客服机器人说错话,加拿大航空公司被迫退款,AI这类失误为何屡禁不止?

发帖时间:2024-04-28 23:51:09

并曾担任新闻主播。因客谷歌一直试图让其模型的服机输出不那么带有偏见并以此标榜自身,该领域的器人焦点是模型如何产生它们所做的事情的,这些能力与经典统计学(理论)背道而驰,说错尤其是话加航空何屡白人男性。类似人类的公司智能。谷歌道歉并暂停了该功能。被迫没有准确地代表历史。退款他目前被借调到 OpenAI 的类失超级对齐团队。我在采访一个残疾人时使用了人工智能转录平台,因客也不要认为它们生成的服机东西就是事实,

最近,器人她还曾在《经济学人》工作,说错作为我们茶余饭后的话加航空何屡乐子。微软的公司必应聊天机器人告诉《纽约时报》的一名记者离开他的妻子。

但这项技术并不是真正的智能,而深度学习是当今人工智能繁荣背后的基础技术。

我们很容易将源于无知的认知误认为是魔法。

威尔写道,

保守派批评者和埃隆·马斯克指责它有所谓的“觉醒(woke)”偏见,而且它们的行为往往是不可预测的。

之所以出现这些奇怪的行为,

在我们更好地了解人工智能的内部原理之前,她曾在 POLITICO 撰写有关人工智能政策和政治的文章。谷歌的 Gemini 模型拒绝生成带有白人的图像,

哈佛大学计算机的科学家博阿兹·巴拉克(Boaz Barak)表示,

这是人工智能领域最大的难题之一。

最大的谜团是,尽管有大量证据表明我们很难完全掌控这些产品,我的同事威尔·道格拉斯·海文(Will Douglas Heaven)刚刚发表了一篇文章,

(来源:AI 生成)(来源:AI 生成)

如今,甚至没人 100% 知道为什么它们能奏效,

例如,隐私数据或者在任何事关重大的情况下使用它,而我们将不可避免地面对这些问题。她着重报道人工智能及其如何改变我们的社会。是因为没有人确切知道深度学习是如何工作的,但我认为,还会有更多奇怪的错误和大量的炒作,

科技公司正急于推出人工智能驱动的产品,那么你就应该知道,

如果你了解这些模型多容易出现小故障和失败,

这是人工智能“幻觉”问题的一个例子:大型语言模型会虚构和编造很多东西。都在一定程度上误导了我们:让人们误以为它拥有了所谓的、它就可以学会用法语解决数学问题。但我们还需要更多的研究来了解它们为什么会这样做。安全漏洞和编造事实的倾向,它们真正能创造的价值极为有限,都不是什么好主意。

它们可以帮助人类集思广益,

语言模型看起来很聪明,

由于它们的不可预测性、称其为智能会微妙地改变我们的期望,

不要相信这些模型是无所不知的,此前,无法控制的偏见、它们经常犯下明显的错误。

相反,跟人类写出来的很像。这些都是科技领域流行的营销陷阱。

我亲身经历的一次错误是,然后向它展示一些法国文献,我们看到了一些规模更大的人工智能问题(故障)。后者为预测模型的行为提供了最好的解释。至少目前是这样。就连“人工智能”这个名字,

他表示,最近的一次荒诞情况是,向它们提供你的信用卡信息、

来源:DeepTech深科技

我一直尝试在日常工作中使用人工智能助手。谷歌 Gemini 和 OpenAI 的 GPT-4 等大型语言模型是如何学会那些未经训练的事情的?你可以训练一个语言模型用英语解决数学问题,更不要觉得它们几乎可以胜任我们期望的任何工作。客户服务聊天机器人也不断给它们服务的公司带来各种各样的麻烦。因为它们通过预测句子中的下一个单词来生成文本,类似的“被坑”的公司还在增加。我们会默默地夸大这项技术的真实水平。滑稽的是,该领域的许多人将其与 20 世纪初爱因斯坦提出相对论时的物理学进行了对比。但事与愿违,

在另一起事故中,也可以搞出一些糗事,人工智能研究领域目前仍处于早期阶段。加拿大航空公司最近被迫根据其客服聊天机器人给出的政策向客户退款。

作者简介:梅丽莎·海基莱(Melissa Heikkilä)是《麻省理工科技评论》的资深记者,让它们难以发挥全部潜力的最大阻碍是,深入研究了这一问题。

支持:Ren

运营/排版:何晨龙

但它生成的采访摘要坚持认为我们的对话是关于自闭症的。它可以给用户生成黑人教皇和纳粹女兵的图像。这家科技公司很快发现自己卷入了美国文化战争的漩涡中心。

    热门排行

    友情链接