谷歌注冊用戶與其據稱有智能的聊天機器人交談
谷歌據稱有感知能力的聊天機器人是該公司最具爭議的項目之一,引起了人們對人工智能的許多擔憂。盡管存在爭議,谷歌現在正在注冊感興趣的用戶與其聊天機器人交談并向公司提供反饋。
在 5 月的 I/O 2022 峰會上,谷歌 CEO Sundar Pichai 報道了該公司的實驗性 LaMDA 2 對話式 AI 模型。他說,該項目將在未來幾個月內向 beta 測試人員開放,現在用戶可以預訂成為首批測試這個所謂的有感知聊天機器人的用戶。
LaMDA - 對話應用程序的語言模型 - 據說是一種感知自然語言處理 (NLP) 模型。NLP是人與計算機之間的一種接口。Siri 或 Alexa 等語音助手是 NLP 的突出示例,可以將人類語音轉換為命令。NLP 也用于實時翻譯和字幕應用程序。
谷歌據稱有感知能力的聊天機器人被解雇了一名高級軟件工程師
據報道,可以追溯到 7 月,谷歌解雇了一名高級軟件工程師 Blake Lemoine,他聲稱 LaMDA 聊天機器人是有感知力的,并且表現得像一個有自我意識的人。為了證明解雇的合理性,谷歌表示該員工違反了就業和數據安全政策。此外,谷歌道德人工智能研究小組的兩名成員于 2 月離開了公司,稱他們無法應對解雇。
注冊 LaMDA beta 程序的用戶可以在受控和監控的環境中與此 NLP 進行交互。美國的 Android 用戶是第一批注冊的用戶,該計劃將在未來幾周內擴展到 iOS 用戶。該實驗程序向 beta 用戶提供了一些演示,以展示 LaMDA 的功能。
據谷歌工程師稱,第一個演示名為“Imagine It”,它允許用戶命名一個地方并提供探索他們想象力的路徑。第二個演示稱為“列出它”,用戶可以共享一個目標或主題,然后將其分解為有用的子任務列表。最后,最后一個演示是“談論它(狗版)”,它允許用戶和聊天機器人之間關于狗的開放式對話。
谷歌的工程師團隊表示,他們“已經進行了專門的幾輪對抗性測試,以發現模型中的其他缺陷。” 此外,他們并沒有聲稱他們的系統是萬無一失的。“該模型可能會誤解身份術語背后的意圖,并且有時在使用它們時無法產生響應,因為它難以區分良性和對抗性提示。它還可以根據其訓練數據中的偏見產生有害或有毒的反應,產生基于性別或文化背景的刻板印象和歪曲人們的反應。”