猫咪社区免费资源在线观看_色屁屁草草影院ccyycom_免费的av不用播放器的_国产精品久久成人网站_中文字幕与邻居少妇性刺激_婷婷丁香久久

首頁 > 購物 > 正文

聊天機器人大行其道,相關道德風險也越來越大 焦點資訊

2023-03-27 08:51:28來源:36kr

除了信息泄露,ChatGPT還存在哪些問題?

神譯局是36氪旗下編譯團隊,關注科技、商業、職場、生活等領域,重點介紹國外的新技術、新觀點、新風向。

編者按:3 月 24 日,OpenAI 發布聲明,就 ChatGPT 致用戶信息泄露一事道歉,有關此類大型語言模型的風險和弊端再次顯露在人們面前。除了隱私泄露的問題,多年來,研究人員還一直警告說,文本生成算法可能會產生有偏見的和虛假的信息。但科技巨頭們還是急于將其應用于產品中。本文來自編譯,希望對您有所啟發。

ILLUSTRATION: JAMES MARSHALL


(相關資料圖)

去年年底,在 OpenAI 的聊天機器人 ChatGPT 發布后的幾周內,谷歌 AI 首席執行官杰夫·迪恩(Jeff Dean)就表示了,擔心過快部署對話式搜索引擎可能會給 Alphabet 帶來聲譽風險。但今年谷歌還是發布了自己的聊天機器人 Bard,并在第一次演示中犯了一個“關于詹姆斯·韋伯太空望遠鏡”的事實錯誤。

在同一時期,微軟將基于 ChatGPT 的技術整合到了必應搜索引擎中。微軟負責人工智能的負責人莎拉·伯德(Sarah Bird)承認,雖然該技術仍然可以“幻化”出不真實的信息,但它已變得更加可靠了。在接下來的幾天里,必應還聲稱跑步是 18 世紀發明的,并試圖說服一名用戶今年是 2022 年。

亞歷克斯·漢納(Alex Hanna)在這些事件中看到了一個熟悉的模式:將人工智能迅速商業化的經濟激勵,已經超過了對安全或道德的擔憂。漢納曾在谷歌的道德人工智能團隊工作,現在是非營利組織“分布式人工智能研究中心”(Distributed AI research)的研究主管。他說,在責任或安全方面下功夫賺不到多少錢,但對技術的過度炒作卻能帶來很多好處。

制作大型語言模型的競賽(用網絡上的大量數據訓練人工智能系統),以及將倫理作為人工智能設計過程核心部分的運動,幾乎是在同一時間開始的。2018 年,谷歌推出了語言模型 BERT,不久之后,Meta、微軟和英偉達也發布了基于人工智能的類似項目。同樣在 2018 年,谷歌表示要重視人工智能倫理,據稱將限制未來的項目。自那時起,研究人員就警告說,大型語言模型帶有高度的道德風險,可能會輸出有毒和仇恨的言論。此外這些模型也有捏造事實的傾向。

隨著初創公司和科技巨頭開始試圖打造 ChatGPT 的競爭對手,一些業內人士懷疑,ChatGPT 是否已經改變了人們的觀念,讓人們已經沒那么在意人工智能道德風險了,轉而認為可以隨時部署強大到足以生成逼真文本和圖像的人工智能。

在過去幾年中,OpenAI 發布模型的過程已經發生了變化。高管們表示,由于擔心濫用問題及其對社會的影響,文本生成器 GPT-2 于 2019 年在幾個月內分階段發布(一些人批評這一策略是一種宣傳噱頭)。2020 年,其更強大的繼任者 GPT-3 的訓練過程被公開記錄,但不到兩個月后,OpenAI 開始通過面向開發人員的 API 將該技術商業化。到 2022 年 11 月,ChatGPT 的發布過程不包括任何技術論文或研究出版物,只有一篇博客文章、一個演示,以及很快隨之而來的訂閱計劃。

開源人工智能初創公司 Hugging Face 的政策總監艾琳·索萊曼(Irene Solaiman)認為,外部壓力有助于讓 ChatGPT 等人工智能系統承擔責任。她正在與學術界和工業界的人士合作,為非專家提供對文本和圖像生成器進行測試的方法,以評估偏見和其他問題。索萊曼說,如果外部人員能夠探測人工智能系統,企業將不再有借口避免測試輸出偏差或氣候影響等問題。索萊曼此前曾在 OpenAI 工作過,致力于降低系統的“毒性”。

索萊曼說,每次評估都只是一個了解人工智能模型的窗口,而并不代表它每次都一模一樣地執行和輸出同樣的信息。但她希望能夠識別和阻止人工智能造成的傷害,因為令人擔憂的案例已經出現,包括游戲《AI Dungeon》的玩家使用 GPT-3 生成描述涉及兒童的性場景的文本。索萊曼說:“這是一個極端的例子,我們不能讓這種情況發生。”

索萊曼在 Hugging Face 的最新研究發現,大型科技公司對 2018 年至 2022 年發布的生成式模型采取了越來越封閉的方式。Alphabet 的人工智能團隊和 DeepMind 加速了這一趨勢,在 GPT-2 分階段發布后,人工智能領域的其他公司也更廣泛地加入到了這一趨勢中。索萊曼說,那些把自己的突破當作商業機密來保護的公司,也會讓資源匱乏的被邊緣化的研究人員更難接觸到人工智能的前沿。

隨著越來越多的資金投入到大型語言模型中,封閉式發布正在扭轉整個自然語言處理領域歷史上的趨勢。畢竟研究人員歷來都會分享有關訓練數據集、參數權重和代碼的細節,以提高結果的可重復性。

斯坦福大學博士亞歷克斯·塔姆金(Alex Tamkin)的工作重點就是大型語言模型,他說:“我們對‘數據庫系統是在什么基礎上訓練的,以及它們是如何評估的’相關知識了解越來越少,尤其是對于作為產品發布的最強大的系統。”

他認為,人工智能倫理學領域的人提高了公眾意識,讓他們意識到,當技術部署到數十億人身上時,快速行動和打破常規是危險的。如果近年來沒有這項道德工作,情況可能會更糟。

2020 年秋天,塔姆金與 OpenAI 的政策總監邁爾斯·布倫戴奇(Miles Brundage)共同主持了一場關于“大型語言模型的社會影響”的研討會。跨學科小組強調,行業領導者需要制定道德標準,并在部署前進行偏見評估,并避免某些用例。

塔姆金認為,外部人工智能審計服務需要與基于人工智能的公司一起發展,因為內部評估往往達不到要求。他認為,包括社區成員和其他利益相關者在內的參與式評估方法,可以提高對創建人工智能模型的民主參與。

密歇根大學人工智能倫理和政策中心的研究主任莫維·希科克(Merve Hickok)表示,試圖讓公司擱置或戳破人工智能炒作,規范自己,并采用道德原則是不夠的。她說,保護人權意味著從“討論什么是道德的”轉向“討論什么是合法的”。

希科克和漢納都在關注歐盟今年將敲定的《人工智能法案》(AI Act),看看它如何看待生成文本和圖像的模型。希科克說,她特別感興趣的是,歐洲立法者如何處理涉及“谷歌、微軟和 OpenAI 等公司創建的模型”的損害責任。

希科克說:“有些事情需要強制執行,因為我們一次又一次地看到,如果不強制執行,這些公司就會繼續打破常規,繼續追求利潤,而不管人們的權利和社區的利益。”

在布魯塞爾討論政策的同時,AI 的相關風險仍然很高。在 Bard 出現演示錯誤的第二天,Alphabet 的股價下跌了大約 1000 億美元的市值。漢納說:“這是我第一次看到因為如此大規模語言模型的錯誤,而造成的財富損失。”不過,她并不認為這將說服該公司放慢其急于讓產品上市的步伐,“我的猜測是,演示錯誤不會真的成為一個警示故事。”

譯者:Jane

關鍵詞:

責任編輯:hnmd004

主站蜘蛛池模板: 久久99精品久久久久久琪琪 | 波多野结AV衣东京热无码专区 | 日韩一区二区三区精品视频第3页 | 欧美日韩亚洲成人 | 清纯唯美一区二区三区 | 久久av热 | 91岛国 | 豆产96豆麻豆 | 二区视频| 一级做a爰片久久高潮 | 铠甲勇士52集免费观看 | 免费亚洲视频 | 亚洲AV美女一区二区三区 | 77成人网| 免费欧洲毛片a级视频无风险 | 国产女主播精品大秀系列 | 99久热精品免费观看四虎 | 热99精品里视频精品 | 挤奶福利视频在线观看 | 免费网站在线观看人数在哪买 | 全黄h全肉边做边吃奶流浪汉 | 欧美日韩一区二区三区在线播放 | 波多野结衣一区二区三区 | 日韩国产一区 | 国产黄色的视频 | 久久免费孕妇高潮视频 | 一级全毛片 | 国产精品黄色小视频 | 国产亚洲免费观看 | 潘金莲一级淫片aaaa | 日本h片在线 | 亚洲日日精AV无码区A片 | 狠狠色噜噜狠狠色综合久 | 丝袜亚洲综合 | 亚洲精品99久久久久中文字幕 | 无码影片一区二区三区 | 一区二区三区精密机械 | 高潮迭起av乳颜射后入 | 国产欧美一区二区久久性色99 | 亚洲狼人干练合区在线观看 | 日本三级黄色中文字幕 |