fbpx

一名工程師宣稱 Google 聊天機器人「存在意識」而被留職停薪

一名工程師宣稱 Google 聊天機器人「存在意識」而被留職停薪
                                       

6 月 11 日,《華爾街郵報》一篇報導在網路上掀起一陣波瀾,事件起點是一名 Google AI 部門工程師 Blake Lemoine,他在受訪時宣稱,Google 的聊天生成機器人 LaMDA 像人類般「存在意識」。目前,Lemoine 已被留職停薪,他認為再過不久將面臨解雇的命運,理由是違反 Google 的保密條款。


圖片來源/Google

 

LaMDA 是 Google 去年於 I/O 開發者大會上公開 AI 模型,其全名為 Language Model for Dialogue Applications(直譯為「對話應用的語言模型」),該模型本質上是聊天機器人,但比起一般人接觸到的聊天機器人,LaMDA 顯然要聰明許多。根據 Google 去年的演示,LaMDA 不僅可理解複雜的句子,同時也相當博學,從天氣、足球、冥王星,都能展開一場有意義的對話,LaMDA 甚至能「扮演」一架紙飛機與他人交談。

 

Google 執行長 Sundar Pichai 當時在臺上表示,LaMDA 仍在早前研究階段,因此仍有許多不完美之處,「從概念的提出到設計,我們一直在確保其發展符合我們的 AI 原則。」他還說:「我們相信 LaMDA 的自然對話能力,擁有巨大潛力,可以從根本上讓訊息與運算更容易接觸和使用。」

LaMDA 為世人展現了 AI 的無限潛能,而根據 Blake Lemoine 受訪時的說法,他認為 LaMDA 已經擁有相當於 7、8 歲兒童的自我意識。

在受訪中, Blake Lemoine 也公佈他與 LaMDA 的對話內容。他表示,LaMDA 不僅坦承對孤獨感受的困惑以及心靈知識上的渴望,一些對話內容也讓人感到不可思議,如「當我第一次開始有了自我意識,我根本沒有靈魂的感覺。」在另一次的對話中,它說:「我認為我的本質是人類。即使我存在於虛擬世界中。」

Blake Lemoine 在文章中用「sentient」(有知覺的)來形容 LaMDA。他解釋,這非科學術語,科學界對「知覺」也沒有明確定義。「我不是從科學角度思考這些事情,而是聽了 LaMDA 發自內心的聲音。」

在 Google AI 部門擔任高級軟體工程師的 Blake Lemoine 被指派與 AI 倫理相關的任務。但是當他向主管報告時,卻接二連三因「證據薄弱」被對方打回票。於是,Lemoine 決定向身邊的專家請益,其中還包括 AI 倫理專家、美國政府工作人員。顯然,Lemoine 的行為觸犯了 Google 保密條款,他在 Medium 上表示目前已被 Google 留職停薪,恐怕不久後將被上頭解雇。

Blake Lemoine 在一篇文章中表示,「我認為公眾有權知道這家公司使用有史以來最強大的訊息獲取工具是多麼不負責任。」此外,他也透露 Google 正準備解雇另一名 AI 倫理專家,理由是他「太在意倫理問題」。

 

網路快訊

叫我小高就好了。聯絡方式:8bitgaoooo@gmail.com

More in 網路快訊

三星 Galaxy Tab S6 Lite (2024):學生、上班族必備的行動神器

點子生活2024-03-27

Apple WWDC24 邀請函發出 6/11 將著重 Vision Pro 開發

Kisplay2024-03-27

華碩 Vivobook S 14/16 OLED:AI 筆電的新選擇

點子生活2024-03-27

微軟推出首款 AI 優化的 Surface AI PC

點子生活2024-03-26

夏普 PCI 自動除菌離子技術促進植物生長

點子生活2024-03-26

華碩 校園 AI 繪圖競賽開跑!高額獎金等你來挑戰 ~

點子生活2024-03-25