搜索
NFT元宇宙Web3
近期热门

科技巨头向人工智能投入数十亿美元,但炒作并不总是与现实相符

主编DOGE

谷歌、Meta 和 OpenAI 正在大力投资这项技术,该技术越来越吸引公众的想象力。

在多年来公司强调人工智能的潜力之后,研究人员说现在是时候重新设定期望了。

随着最近技术的飞跃,公司已经开发出更多的系统,可以产生看似像人类的对话、诗歌和图像。然而,人工智能伦理学家和研究人员警告说,一些企业正在夸大这种能力–他们说这种夸大正在酝酿广泛的误解,并扭曲了政策制定者对这种技术的力量和缺陷的看法。位于西雅图的非营利性研究机构艾伦人工智能研究所(Allen Institute for Artificial Intelligence)的首席执行官Oren Etzioni说:”我们已经失去了平衡”。

Alphabet Inc.旗下谷歌的一名工程师基于其宗教信仰,认为该公司的一个人工智能系统应被视为有知觉。这位工程师说,这个聊天机器人实际上已经成为一个人,有权被要求同意在它身上进行的实验。谷歌暂停了他的工作,并拒绝了他的说法,称公司的伦理学家和技术专家已经研究了这种可能性,并驳回了它。人工智能正在成为或可能成为有意识的人的信念在更广泛的科学界仍然处于边缘地位。实际上,人工智能包括一系列技术,这些技术在很大程度上仍然适用于一系列非电影性的后台后勤工作,如处理来自用户的数据,以更好地针对他们提供广告、内容和产品建议。

在过去的十年里,谷歌、Facebook母公司Meta Platforms Inc.和亚马逊公司等公司已经在推进这种能力方面进行了大量投资,以推动其增长和利润的引擎。例如,谷歌使用人工智能来更好地解析复杂的搜索提示,帮助它提供相关的广告和网络结果。一些初创公司也萌生了更宏伟的野心。其中一家名为OpenAI的公司从捐助者和投资者那里筹集了数十亿美元,其中包括特斯拉公司首席执行官埃隆-马斯克和微软公司,目的是实现所谓的人工通用智能,一个能够匹配或超过人类智能的每个层面的系统。一些研究人员认为,这不是无法实现,但是是几十年后的事。

这些公司之间为超越对方而进行的竞争,推动了人工智能的快速发展,并导致了越来越多引人注目的演示,吸引了公众的想象力和对该技术的关注。

OpenAI的DALL-E,一个可以根据用户提示生成艺术品的系统,如”穿着运动装备参加铁人三项比赛的熊”,最近几周在社交媒体上产生了许多meme。此后,谷歌也推出了自己的基于文本的艺术生成系统。虽然这些产出可能是壮观的,然而,越来越多的专家警告说,公司并没有充分地控制炒作。

Margaret Mitchell曾共同领导谷歌的道德人工智能团队,在她写了一篇关于其系统的批评性论文后,该公司将其解雇。Mitchell现在在一家名为Hugging Face的人工智能初创公司工作,而谷歌的另一位道德人工智能联合负责人Timnit Gebru也被迫离职,他们是最早对该技术的危险性提出警告的一些人。

在他们在公司写的最后一篇论文中,他们认为这些技术有时会造成伤害,因为它们类似于人类的能力意味着它们有和人类一样的失败可能。他们列举的例子包括:Facebook的人工智能系统将阿拉伯语的 “早上好 “翻译成英语的 “伤害他们 “和希伯来语的 “攻击他们”,导致以色列警方在意识到他们的错误之前逮捕了发布该问候语的巴勒斯坦男子。

华尔街日报去年出版的《脸书档案》系列中审查的内部文件也显示,脸书的系统未能持续识别第一人称射击视频和种族主义言论,只删除了一小部分违反公司规则的内容。Facebook表示,其人工智能的改进是大幅缩减仇恨言论和其他违反其规则的内容的原因。

谷歌表示,它解雇了Mitchell,因为她与公司以外的人分享内部文件。该公司的人工智能负责人告诉员工,Mitchell的工作不够严谨。解雇事件在科技行业引起了反响,引发了谷歌内外数千人谴责,他们在一份请愿书中强调了 “史无前例的研究审查制度”。首席执行官Sundar Pichai说,他将努力恢复对这些问题的信任,并承诺将研究人工智能伦理的人数增加一倍。

感知和现实之间的差距并不新鲜。Etzioni 和其他人指出,国际商业机器公司的人工智能系统Watson在问答节目 “Jeopardy “中战胜人类后广为人知。经过十年和数十亿美元的投资,该公司去年表示正在探讨出售Watson Health,该部门的主要产品应该是帮助医生诊断和治疗癌症。由于人工智能现在无处不在,而且涉及更多的公司,其软件–电子邮件、搜索引擎、新闻提要、语音助手–渗透到我们的数字生活中,因此利害关系更加突出。

在其工程师最近的说法之后,谷歌反驳了其聊天机器人是有意识的说法。

该公司的聊天机器人和其他对话工具可以扯到任何幻想的话题,谷歌发言人布莱恩-加布里埃尔说:“如果你问做一只冰激凌恐龙是什么感觉,它们可以生成关于融化和咆哮等的文本。” 他补充说,这并不等同于有意识。现在被停职的工程师Blake Lemoine在接受采访时说,他从一个名为LaMDA的聊天机器人的受控实验中汇编了数百页的对话,以支持他的研究,他准确地介绍了谷歌程序的内部运作情况。Lemoine说:”这并不是对系统性质的夸大,我正在努力,尽可能仔细和准确地传达哪里有不确定性。”

Lemoine称自己是一个神秘主义者,融合了基督教和其他精神实践,如冥想,他说当他把LaMDA描述为有生命的时候,是以宗教身份说话。布朗大学研究人工智能政策的计算机科学博士生伊丽莎白-库马尔说,认知差距已经悄悄进入政策文件。最近的地方、联邦和国际法规和监管提案都试图解决人工智能系统的潜在歧视、操纵或以其他方式造成伤害的问题,这些都是假设一个系统具有高度能力。他们在很大程度上忽略了这种人工智能系统根本不工作而造成伤害的可能性,而这种可能性更大。

Etzioni也是国家人工智能研究资源工作组的成员,他说政策制定者往往难以把握这些问题。他说:”我可以告诉你,从我与他们中的一些人的谈话中,他们是善意的,并提出了很好的问题,但他们不是很了解情况。”

编辑于 2022-06-30 09:16
「 真诚赞赏,手留余香 」
赞赏

发表评论已发布0

手机APP 意见反馈 返回顶部 返回底部