首頁(yè) 理財(cái) > 正文

每日資訊:Meta首席科學(xué)家:AI不如狗聰明

AI前線(xiàn)


(相關(guān)資料圖)

編譯 | Sambodhi、凌敏

毫無(wú)疑問(wèn),當(dāng)前的 AI 仍存在一定的局限性。

AI 還不如狗聰明?

近日,Meta 首席人工智能科學(xué)家楊立昆(Yann LeCun)在法國(guó)巴黎舉行的 Viva Tech 大會(huì)上被問(wèn)及人工智能的當(dāng)前局限性。他重點(diǎn)談到了基于大型語(yǔ)言模型的生成式人工智能,表示它們并不是很智能,因?yàn)樗鼈儍H僅是通過(guò)語(yǔ)言訓(xùn)練的。

楊立昆表示,當(dāng)前的人工智能系統(tǒng)智力水平不及人類(lèi),甚至還不如一條狗聰明?!斑@些系統(tǒng)仍然非常有限,它們對(duì)真實(shí)世界的底層現(xiàn)實(shí)沒(méi)有任何理解,因?yàn)樗鼈兗兇馐腔诖罅康奈谋居?xùn)練的?!?“人類(lèi)知識(shí)的大部分與語(yǔ)言無(wú)關(guān)……所以,人工智能并沒(méi)有涵蓋人類(lèi)經(jīng)驗(yàn)的那一部分。”

楊立昆補(bǔ)充說(shuō),現(xiàn)在一種人工智能系統(tǒng)可以通過(guò)美國(guó)的律師資格考試,也就是成為律師所必需的考試。然而,他說(shuō)人工智能無(wú)法裝載洗碗機(jī),而一個(gè) 10 歲的孩子可以在 “10 分鐘內(nèi)學(xué)會(huì)”。

楊立昆表示, Meta 正在致力于訓(xùn)練人工智能從視頻中學(xué)習(xí),而不僅僅是從語(yǔ)言中學(xué)習(xí), 這是一項(xiàng)更具挑戰(zhàn)性的任務(wù)。

在另一個(gè)當(dāng)前人工智能局限性的例子中,楊立昆舉例稱(chēng)一個(gè) 5 個(gè)月大的嬰兒看到一個(gè)漂浮的物體,并不會(huì)想太多。然而,一個(gè) 9 個(gè)月大的嬰兒看到這個(gè)物體會(huì)感到驚訝,因?yàn)樗庾R(shí)到物體不應(yīng)該漂浮。

楊立昆表示,我們“不知道如何在今天用機(jī)器來(lái)復(fù)制這種能力。在我們能做到這一點(diǎn)之前,機(jī)器不會(huì)有人類(lèi)水平的智能,也不會(huì)有狗或貓的智能水平?!?

還有必要將 AI 視作威脅嗎?

人工智能的快速發(fā)展引發(fā)了部分技術(shù)人士的擔(dān)憂(yōu),有人認(rèn)為,如果不加以控制,這項(xiàng)技術(shù)可能對(duì)社會(huì)構(gòu)成危險(xiǎn)。特斯拉首席執(zhí)行官馬斯克更是表示,人工智能是 “對(duì)文明未來(lái)最大的風(fēng)險(xiǎn)之一”。

前段時(shí)間,人工智能安全中心(CAIS)發(fā)布了一份由 OpenAI 及 DeepMind 高管、圖靈獎(jiǎng)獲得者及其他 AI 研究人員簽署的簡(jiǎn)短聲明,警告稱(chēng)他們的畢生成果可能會(huì)毀滅全人類(lèi)。聲明內(nèi)容只有一句:“應(yīng)該像對(duì)待包括流行病和核戰(zhàn)爭(zhēng)等其他全球性迫切社會(huì)問(wèn)題一樣,緩解 AI 引發(fā)的滅絕性風(fēng)險(xiǎn)?!盋AIS 表示,這份聲明希望討論“AI 所帶來(lái)的廣泛且緊迫的風(fēng)險(xiǎn)”。

在聲明上簽字的名人包括圖靈獎(jiǎng)獲得者 Geoffery Hinton 和 Yoshua Bengio、OpenAI CEO Sam Altman、OpenAI 首席科學(xué)家 Ilya Sutskever、OpenAI 首席技術(shù)官 Mira Murati、DeepMind CEO Demis Hassabis、Anthropic CEO Dario Amodei,以及來(lái)自加州大學(xué)伯克利分校、斯坦福大學(xué)和麻省理工學(xué)院的多位教授。

在 Viva Tech 大會(huì)上,法國(guó)經(jīng)濟(jì)學(xué)家和社會(huì)理論家 Jacques Attali 在談到相關(guān)話(huà)題時(shí)也對(duì) AI 風(fēng)險(xiǎn)表示擔(dān)憂(yōu),Attali 認(rèn)為,AI 的利弊取決于其使用方式。

“如果你使用人工智能來(lái)開(kāi)發(fā)更多化石燃料,那將是可怕的。如果你使用人工智能來(lái)開(kāi)發(fā)更多可怕的武器,那也將是可怕的,”Attali 說(shuō),“相反,人工智能對(duì)于健康、教育和文化可能是令人驚人的?!?

Attali 對(duì)未來(lái)持悲觀態(tài)度,他說(shuō):“眾所周知,人類(lèi)在未來(lái)三到四十年面臨許多危險(xiǎn)。”他指出氣候?yàn)?zāi)難和戰(zhàn)爭(zhēng)是他最擔(dān)心的問(wèn)題之一,還提到他擔(dān)心機(jī)器人 “會(huì)對(duì)我們進(jìn)行反叛”。

而楊立昆則有不同的觀點(diǎn),楊立昆的態(tài)度比較樂(lè)觀,他認(rèn)為將來(lái)會(huì)有比人類(lèi)更聰明的機(jī)器,這不應(yīng)被視為一種威脅?!拔覀儾粦?yīng)該把這視為一種威脅,我們應(yīng)該把這視為一種非常有益的事情。每個(gè)人都將擁有一個(gè)比自己更聰明的人工智能助手……它將像一個(gè)員工一樣,在你的日常生活中為你提供幫助,”楊立昆說(shuō)道。

楊立昆補(bǔ)充說(shuō),這些人工智能系統(tǒng)需要被創(chuàng)建為“可控制的,基本上服從人類(lèi)”。他還駁斥了機(jī)器人會(huì)接管世界的觀點(diǎn)?!翱苹眯≌f(shuō)中流行的一個(gè)恐懼是,如果機(jī)器人比我們聰明,它們將想要接管世界……聰明與是否想要接管之間沒(méi)有關(guān)聯(lián),”

參考鏈接:

/2023/06/15/

/article/ARJEOOh2M5oAmwRCpzfk

關(guān)鍵詞:

最近更新

關(guān)于本站 管理團(tuán)隊(duì) 版權(quán)申明 網(wǎng)站地圖 聯(lián)系合作 招聘信息

Copyright © 2005-2023 創(chuàng)投網(wǎng) - 670818.com All rights reserved
聯(lián)系我們:39 60 29 14 2@qq.com
皖I(lǐng)CP備2022009963號(hào)-3