AI前线
编译 | Sambodhi、凌敏
(相关资料图)
毫无疑问,当前的 AI 仍存在一定的局限性。
AI 还不如狗聪明?
近日,Meta 首席人工智能科学家杨立昆(Yann LeCun)在法国巴黎举行的 Viva Tech 大会上被问及人工智能的当前局限性。他重点谈到了基于大型语言模型的生成式人工智能,表示它们并不是很智能,因为它们仅仅是通过语言训练的。
杨立昆表示,当前的人工智能系统智力水平不及人类,甚至还不如一条狗聪明。“这些系统仍然非常有限,它们对真实世界的底层现实没有任何理解,因为它们纯粹是基于大量的文本训练的。” “人类知识的大部分与语言无关……所以,人工智能并没有涵盖人类经验的那一部分。”
杨立昆补充说,现在一种人工智能系统可以通过美国的律师资格考试,也就是成为律师所必需的考试。然而,他说人工智能无法装载洗碗机,而一个 10 岁的孩子可以在 “10 分钟内学会”。
杨立昆表示, Meta 正在致力于训练人工智能从视频中学习,而不仅仅是从语言中学习, 这是一项更具挑战性的任务。
在另一个当前人工智能局限性的例子中,杨立昆举例称一个 5 个月大的婴儿看到一个漂浮的物体,并不会想太多。然而,一个 9 个月大的婴儿看到这个物体会感到惊讶,因为它意识到物体不应该漂浮。
杨立昆表示,我们“不知道如何在今天用机器来复制这种能力。在我们能做到这一点之前,机器不会有人类水平的智能,也不会有狗或猫的智能水平。”
还有必要将 AI 视作威胁吗?
人工智能的快速发展引发了部分技术人士的担忧,有人认为,如果不加以控制,这项技术可能对社会构成危险。特斯拉首席执行官马斯克更是表示,人工智能是 “对文明未来最大的风险之一”。
前段时间,人工智能安全中心(CAIS)发布了一份由 OpenAI 及 DeepMind 高管、图灵奖获得者及其他 AI 研究人员签署的简短声明,警告称他们的毕生成果可能会毁灭全人类。声明内容只有一句:“应该像对待包括流行病和核战争等其他全球性迫切社会问题一样,缓解 AI 引发的灭绝性风险。”CAIS 表示,这份声明希望讨论“AI 所带来的广泛且紧迫的风险”。
在声明上签字的名人包括图灵奖获得者 Geoffery Hinton 和 Yoshua Bengio、OpenAI CEO Sam Altman、OpenAI 首席科学家 Ilya Sutskever、OpenAI 首席技术官 Mira Murati、DeepMind CEO Demis Hassabis、Anthropic CEO Dario Amodei,以及来自加州大学伯克利分校、斯坦福大学和麻省理工学院的多位教授。
在 Viva Tech 大会上,法国经济学家和社会理论家 Jacques Attali 在谈到相关话题时也对 AI 风险表示担忧,Attali 认为,AI 的利弊取决于其使用方式。
“如果你使用人工智能来开发更多化石燃料,那将是可怕的。如果你使用人工智能来开发更多可怕的武器,那也将是可怕的,”Attali 说,“相反,人工智能对于健康、教育和文化可能是令人惊人的。”
Attali 对未来持悲观态度,他说:“众所周知,人类在未来三到四十年面临许多危险。”他指出气候灾难和战争是他最担心的问题之一,还提到他担心机器人 “会对我们进行反叛”。
而杨立昆则有不同的观点,杨立昆的态度比较乐观,他认为将来会有比人类更聪明的机器,这不应被视为一种威胁。“我们不应该把这视为一种威胁,我们应该把这视为一种非常有益的事情。每个人都将拥有一个比自己更聪明的人工智能助手……它将像一个员工一样,在你的日常生活中为你提供帮助,”杨立昆说道。
杨立昆补充说,这些人工智能系统需要被创建为“可控制的,基本上服从人类”。他还驳斥了机器人会接管世界的观点。“科幻小说中流行的一个恐惧是,如果机器人比我们聪明,它们将想要接管世界……聪明与是否想要接管之间没有关联,”
参考链接:
/2023/06/15/
/article/ARJEOOh2M5oAmwRCpzfk
下一篇:最后一页
(聊城市新闻传媒中心全媒体记者李泽丰 度假区韩云超董士聪刘翔)度假
中新网6月23日电据侵华日军南京大屠杀遇难同胞纪念馆官方微博消息,南
七台河职业学院特色优势专业有哪些、哪些专业比较好是广大考生和家长朋
来源|都市现场原创未经允许请勿转载6月21日下午4点多钟在南昌市进贤县
颁奖仪式宋博文供图中新网北京6月24日电第十五届北京“八喜杯”小篮球