聊天機器人大行其道,相關道德風險也越來越大 焦點資訊
神譯局是36氪旗下編譯團隊,關注科技、商業、職場、生活等領域,重點介紹國外的新技術、新觀點、新風向。
編者按:3 月 24 日,OpenAI 發布聲明,就 ChatGPT 致用戶信息泄露一事道歉,有關此類大型語言模型的風險和弊端再次顯露在人們面前。除了隱私泄露的問題,多年來,研究人員還一直警告說,文本生成算法可能會產生有偏見的和虛假的信息。但科技巨頭們還是急于將其應用于產品中。本文來自編譯,希望對您有所啟發。
ILLUSTRATION: JAMES MARSHALL
(相關資料圖)
去年年底,在 OpenAI 的聊天機器人 ChatGPT 發布后的幾周內,谷歌 AI 首席執行官杰夫·迪恩(Jeff Dean)就表示了,擔心過快部署對話式搜索引擎可能會給 Alphabet 帶來聲譽風險。但今年谷歌還是發布了自己的聊天機器人 Bard,并在第一次演示中犯了一個“關于詹姆斯·韋伯太空望遠鏡”的事實錯誤。
在同一時期,微軟將基于 ChatGPT 的技術整合到了必應搜索引擎中。微軟負責人工智能的負責人莎拉·伯德(Sarah Bird)承認,雖然該技術仍然可以“幻化”出不真實的信息,但它已變得更加可靠了。在接下來的幾天里,必應還聲稱跑步是 18 世紀發明的,并試圖說服一名用戶今年是 2022 年。
亞歷克斯·漢納(Alex Hanna)在這些事件中看到了一個熟悉的模式:將人工智能迅速商業化的經濟激勵,已經超過了對安全或道德的擔憂。漢納曾在谷歌的道德人工智能團隊工作,現在是非營利組織“分布式人工智能研究中心”(Distributed AI research)的研究主管。他說,在責任或安全方面下功夫賺不到多少錢,但對技術的過度炒作卻能帶來很多好處。
制作大型語言模型的競賽(用網絡上的大量數據訓練人工智能系統),以及將倫理作為人工智能設計過程核心部分的運動,幾乎是在同一時間開始的。2018 年,谷歌推出了語言模型 BERT,不久之后,Meta、微軟和英偉達也發布了基于人工智能的類似項目。同樣在 2018 年,谷歌表示要重視人工智能倫理,據稱將限制未來的項目。自那時起,研究人員就警告說,大型語言模型帶有高度的道德風險,可能會輸出有毒和仇恨的言論。此外這些模型也有捏造事實的傾向。
隨著初創公司和科技巨頭開始試圖打造 ChatGPT 的競爭對手,一些業內人士懷疑,ChatGPT 是否已經改變了人們的觀念,讓人們已經沒那么在意人工智能道德風險了,轉而認為可以隨時部署強大到足以生成逼真文本和圖像的人工智能。
在過去幾年中,OpenAI 發布模型的過程已經發生了變化。高管們表示,由于擔心濫用問題及其對社會的影響,文本生成器 GPT-2 于 2019 年在幾個月內分階段發布(一些人批評這一策略是一種宣傳噱頭)。2020 年,其更強大的繼任者 GPT-3 的訓練過程被公開記錄,但不到兩個月后,OpenAI 開始通過面向開發人員的 API 將該技術商業化。到 2022 年 11 月,ChatGPT 的發布過程不包括任何技術論文或研究出版物,只有一篇博客文章、一個演示,以及很快隨之而來的訂閱計劃。
開源人工智能初創公司 Hugging Face 的政策總監艾琳·索萊曼(Irene Solaiman)認為,外部壓力有助于讓 ChatGPT 等人工智能系統承擔責任。她正在與學術界和工業界的人士合作,為非專家提供對文本和圖像生成器進行測試的方法,以評估偏見和其他問題。索萊曼說,如果外部人員能夠探測人工智能系統,企業將不再有借口避免測試輸出偏差或氣候影響等問題。索萊曼此前曾在 OpenAI 工作過,致力于降低系統的“毒性”。
索萊曼說,每次評估都只是一個了解人工智能模型的窗口,而并不代表它每次都一模一樣地執行和輸出同樣的信息。但她希望能夠識別和阻止人工智能造成的傷害,因為令人擔憂的案例已經出現,包括游戲《AI Dungeon》的玩家使用 GPT-3 生成描述涉及兒童的性場景的文本。索萊曼說:“這是一個極端的例子,我們不能讓這種情況發生。”
索萊曼在 Hugging Face 的最新研究發現,大型科技公司對 2018 年至 2022 年發布的生成式模型采取了越來越封閉的方式。Alphabet 的人工智能團隊和 DeepMind 加速了這一趨勢,在 GPT-2 分階段發布后,人工智能領域的其他公司也更廣泛地加入到了這一趨勢中。索萊曼說,那些把自己的突破當作商業機密來保護的公司,也會讓資源匱乏的被邊緣化的研究人員更難接觸到人工智能的前沿。
隨著越來越多的資金投入到大型語言模型中,封閉式發布正在扭轉整個自然語言處理領域歷史上的趨勢。畢竟研究人員歷來都會分享有關訓練數據集、參數權重和代碼的細節,以提高結果的可重復性。
斯坦福大學博士亞歷克斯·塔姆金(Alex Tamkin)的工作重點就是大型語言模型,他說:“我們對‘數據庫系統是在什么基礎上訓練的,以及它們是如何評估的’相關知識了解越來越少,尤其是對于作為產品發布的最強大的系統。”
他認為,人工智能倫理學領域的人提高了公眾意識,讓他們意識到,當技術部署到數十億人身上時,快速行動和打破常規是危險的。如果近年來沒有這項道德工作,情況可能會更糟。
2020 年秋天,塔姆金與 OpenAI 的政策總監邁爾斯·布倫戴奇(Miles Brundage)共同主持了一場關于“大型語言模型的社會影響”的研討會。跨學科小組強調,行業領導者需要制定道德標準,并在部署前進行偏見評估,并避免某些用例。
塔姆金認為,外部人工智能審計服務需要與基于人工智能的公司一起發展,因為內部評估往往達不到要求。他認為,包括社區成員和其他利益相關者在內的參與式評估方法,可以提高對創建人工智能模型的民主參與。
密歇根大學人工智能倫理和政策中心的研究主任莫維·希科克(Merve Hickok)表示,試圖讓公司擱置或戳破人工智能炒作,規范自己,并采用道德原則是不夠的。她說,保護人權意味著從“討論什么是道德的”轉向“討論什么是合法的”。
希科克和漢納都在關注歐盟今年將敲定的《人工智能法案》(AI Act),看看它如何看待生成文本和圖像的模型。希科克說,她特別感興趣的是,歐洲立法者如何處理涉及“谷歌、微軟和 OpenAI 等公司創建的模型”的損害責任。
希科克說:“有些事情需要強制執行,因為我們一次又一次地看到,如果不強制執行,這些公司就會繼續打破常規,繼續追求利潤,而不管人們的權利和社區的利益。”
在布魯塞爾討論政策的同時,AI 的相關風險仍然很高。在 Bard 出現演示錯誤的第二天,Alphabet 的股價下跌了大約 1000 億美元的市值。漢納說:“這是我第一次看到因為如此大規模語言模型的錯誤,而造成的財富損失。”不過,她并不認為這將說服該公司放慢其急于讓產品上市的步伐,“我的猜測是,演示錯誤不會真的成為一個警示故事。”
譯者:Jane
關鍵詞:
責任編輯:hnmd004
- 聊天機器人大行其道,相關道德風險也越來越2023-03-27
- 國土“二調”向“三調”轉換過程中的新能源2023-03-27
- 全球熱推薦:我國首次實現固態氫能發電并網2023-03-27
- 廣西海上風電示范項目全面啟動2023-03-27
- 注冊資本20億,擇優開發陸上風光資源!中海2023-03-27
- 【天天新要聞】“綠電”與“綠氫”靈活轉換2023-03-27
- 觀熱點:磷酸鐵鋰電池加速“搶占”市場2023-03-27
- 謝克昌院士:構建現代能源體系,推進能源強2023-03-27
- 生物質發電難入現貨市場-環球今亮點2023-03-27
- 謝克昌院士:構建現代能源體系 推進能源強2023-03-27
- 【環球新要聞】1死7傷!哈爾濱一小區發生爆2023-03-27
- 工信部:擬注銷上海溪卓網絡科技有限公司等2023-03-27
- 物流保通保暢:監測港口累計完成貨物吞吐量2023-03-27
- 要聞:夏秋航季實施首日,首都口岸旅客量突2023-03-27
- 分析師:存儲器晶片價格跌勢或會延續到Q22023-03-27
- 穩定幣Terra創始人權道亨面臨偽造護照指控2023-03-27
- 我國外貿韌性不斷增強 義烏國際商貿城日均2023-03-27
- 焦點速遞!小米2022全年營收2800億,2023年2023-03-27
- 除了 Yes 和 No,TikTok 周受資回答了2023-03-27
- 看熱訊:比起ChatGPT,更可怕的競爭對手是2023-03-27
- 游戲板塊近期持續回暖,主題ETF領漲-全球速2023-03-27
- 北大韋神出題 初二學生給出標準答案 北大2023-03-27
- 花旗:持有澳大利亞銀行股仍然是明智的 全2023-03-27
- 400億杉杉實控人紛爭,公司回應:雙方已建2023-03-27
- 焦點熱門:三星李在镕時隔近3年再訪華,出席2023-03-27
- 中信建投:長期看好AI發展,持續推薦電信運2023-03-27
- 環球快消息!上交所對陜西黑貓發行可轉債下2023-03-27
- 霓裳羽衣是哪個朝代的宮廷樂舞?霓裳羽衣舞2023-03-27
- 視點!熊出沒靈異事件是怎么回事?真相是什2023-03-27
- 全球報道:沈陽故宮靈異事件是怎么回事?沈2023-03-27