「快速行動,打破陳規」是年輕的馬克・祖克柏(Mark Zuckerberg)在二十年前提出的座右銘。這句話至今依然縈繞在科技界。

這句話象徵著矽谷最糟糕的一面:無情的野心和令人驚訝的傲慢,不計後果、唯利是圖的創新。

本週,當好萊塢女星史嘉蕾・喬韓森(Scarlett Johansson)與OpenAI發生衝突時,我想起了這句話。喬韓森女士聲稱,她和經紀人都拒絕讓她為ChatGPT的新產品配音,但當新產品亮相時,聲音卻非常相似。OpenAI否認這是有意模仿。

這正是創意產業所擔心——人們被模仿並最終被人工智慧(AI)取代的典型例證。

這一切都與昔日那些獨斷專行的矽谷巨頭如出一轍。將尋求寬恕而不是許可作為非正式的商業計劃。

2024年的科技公司非常希望擺脫這種名聲。

而OpenAI並不是從那個模子裡塑造出來的。它最初是一家非營利組織,致力於將任何額外的利潤投入到業務中。

2019年,當該公司成立營利部門時,公司表示其將由非營利部門領導,投資者的回報將有上限。

並非所有人都對這一轉變感到高興——據說這是聯合創始人伊隆・馬斯克(Elon Musk)決定離開的一個重要原因。去年年底,OpenAI首席執行官山姆・奧特曼(Sam Altman)突然被董事會解僱,其中一種說法是他想進一步偏離最初的使命。但我們無法確定該說法。

不過,即便OpenAI變得更加以利益為導向,它仍必須正視自己的責任。

宛如噩夢

在政策制定領域,幾乎所有人都認為在災難來臨之前,需要制定明確的界限來約束OpenAI這樣的公司。

迄今為止,AI巨頭們基本上都是紙上談兵。在六個月前舉行的全球首屆AI安全峰會上,一群科技公司老闆簽署了一份自願承諾書,承諾創造負責任、安全的產品,最大限度地發揮AI技術的優勢,同時將其風險降至最低。

他們所說的風險宛如噩夢,如同《魔鬼終結者》和《決戰末世代》的場景一般,AI走向失控並摧毀人類。

上週,一份由30位獨立專家組成的英國政府報告草案得出結論稱,「尚無證據」表明AI可以製造生物武器或實施複雜的網路攻擊。

報告稱,有關人類失去對AI控制的可能性「極具爭議」。

本週早些時候,當峰會再次召開時,「安全」一詞已從會議標題中完全刪除。

該領域的一些人早前就表示,AI工具帶來的更直接威脅是,它們會取代工作或者無法識別膚色。AI倫理專家魯曼・喬杜里(Rumman Chowdhury)博士說,這些是真正的問題。

還有更複雜的問題。該報告稱,目前還沒有可靠的方法來凖確理解AI工具為什麼會產生這樣的輸出——甚至它們的開發人員也不確定。而目前已建立的安全測試項目「紅隊演練」(Red Teaming),即評估人員故意讓AI工具行為不當,也沒有最佳實踐指南。

在本週由英國和韓國在首爾聯合主辦的後續峰會上,科技公司承諾,如果一款產品沒有達到一定的安全門檻,就會將其擱置——但這些標凖要到2025年的下一次峰會才會確定。

就在專家們爭論AI威脅的本質時,科技公司仍在不斷推出產品。

僅在過去幾天,OpenAI的ChatGPT-4o、谷歌的「阿斯特拉計劃」(Project Astra)和微軟的CoPilot+相繼推出。人工智慧安全研究所(AI Safety Institute)拒絕透露是否有機會在這些工具發布前對其進行測試。

OpenAI表示其有十項安全流程。但本週早些時候,該公司一名專注於安全的高級工程師辭職,稱他所在的部門在內部一直「逆風而行」。

「在過去的幾年裡,安全文化和流程在閃閃發光的產品面前已退居其次。」簡・雷克(Jan Leike)在「X」上寫道。

當然,OpenAI還有其他團隊在繼續關注安全問題。但這些公司實際上在做什麼,並沒有官方和獨立監督。

「自願性協議本質上只是企業給自己的作業打分的一種方式。」獨立研究機構艾達・洛夫萊斯研究所(Ada Lovelace Institute)副總監安德魯・斯特雷特(Andrew Strait)說。「它本質上無法取代具有法律約束力和可強制執行的規則,而這些規則是激勵這些技術負責任發展所必需的。」

英國著名計算機科學家溫迪・霍爾(Dame Wendy Hall)教授說:「我們沒有這些公司會遵守承諾的保證。」

「我們如何讓他們對自己所說的話負責,就像我們對製藥公司或其他存在高風險的行業所做的那樣?」

更嚴格的規則即將出台。歐盟通過了《人工智慧法案》(AI Act),這是世界上首部該類法律,並對違規行為制定了嚴厲的懲罰措施。但一些人認為,這將影響用戶——他們將不得不自己對AI工具進行風險評估——而不是那些開發AI的公司。

但這並不一定意味著AI公司就可以置身事外。

「我們需要逐步走向法律監管,但不能操之過急。」霍爾教授說。「建立每個人都簽署的全球治理原則真的很難。」

「我們還需要確保它真正是全球性的,而不僅僅保護的是西方世界和中國。」

與以往一樣,最重要的問題是,監管和政策的推出要比創新滯後得多。

霍爾教授認為,政府層面將「萬事俱備」。

問題在於,我們能否說服科技巨頭們等待它們的到來。


史嘉蕾・喬韓森被AI聊天機器人的模仿所「震驚」

Photo Credit: Reuters / BBC News

BBC記者馬特・墨菲(Matt Murphy)、麗芙・麥克馬洪(Liv McMahon)

好萊塢女星史嘉蕾・喬韓森表示,她對OpenAI推出一款語音與她本人「極為相似」的聊天機器人感到「震驚」和「憤怒」。

這位女演員說,她之前已拒絕了OpenAI希望她為該公司的新聊天機器人配音的邀請。

但在上週新款聊天機器人首次亮相時,評論人士很快就將該聊天機器人「Sky」的聲音與喬韓森在2013年出演的電影《雲端情人》(Her)中的聲音進行了比較。

OpenAI週一表示,該公司將移除語音,但堅稱這不是對喬韓森的「模仿」。

然而,在BBC週一晚間看到的一份聲明中,喬韓森指責該公司及其創始人山姆・奧特曼故意複製她的聲音。

「當我聽到發布的樣片時,我感到震驚、憤怒和難以置信,奧特曼先生竟然會尋求一種聽起來與我如此相似的聲音。」她寫道。

「奧特曼先生甚至暗示這種相似是有意為之,他在推特上發了一個單詞『她』——指的是電影中我配音的聊天系統莎曼珊(Samantha),她與人類建立了親密關係。」

2013年的電影《雲端情人》的故事背景設定在不久的將來,瓦昆・菲尼克斯(Joaquin Phoenix)所飾演的角色愛上了他的擬人化女聲操作系統,而喬韓森為該系統配音。

這位曾兩次獲得奧斯卡金像獎提名的女演員說,奧特曼最初是在去年9月找到她,希望她能為新的聊天機器人配音。

「(奧特曼)告訴我,他覺得由我來為這個系統配音,可以彌合科技公司和創造力之間的差距,幫助消費者適應人類和AI之間的巨大轉變。」喬韓森寫道。

「他說,他覺得我的聲音會讓人們感到慰藉。」

但她說,出於個人原因,她最終拒絕了這個邀請。

她補充說,在「Sky」聊天機器人髮布前兩天,奧特曼聯繫了她的經紀人,呼籲喬韓森重新考慮她最初拒絕與公司合作的決定。

這位女演員補充說,她不得不聘請律師,並向該公司發出兩封律師函,以確定聲音的來源。

「在我們都在努力應對深度造假問題,並保護我們自己的肖像、作品和身份的時候,我相信這些問題應該得到絕對的澄清。」她寫道。

在OpenAI傳送給BBC的一份聲明中,奧特曼否認該公司試圖模仿喬韓森的聲音。

「『Sky』的聲音不是史嘉蕾・喬韓森的,(公司)也從未想過要模仿她的聲音。」他寫道。

「我們在與喬韓森女士聯繫之前,就已經選定了『Sky』的配音演員。出於對喬韓森女士的尊重,我們已經暫停在產品中使用『Sky』的聲音。我們很抱歉沒有與喬韓森女士進行更好的溝通。」他寫道。

此外,該公司表示,它正在「努力暫停」該語音,同時在「X」(前稱:Twitter)上發文,回應有關該語音是如何被挑選的問題。

OpenAI在文中表示,聊天機器人使用的五種聲音是從其合作的配音演員中採樣的。

版權挑戰

就在六個月前,好萊塢的演員們同意結束罷工。罷工者呼籲提高工資,並對AI的運用提供保障。這場大罷工使娛樂產業陷入癱瘓。

喬韓森參加了去年的行業行動,其部分關乎電影公司將如何使用AI來模仿演員的臉和聲音。

與電影公司達成的協議包括保證未經演員同意不會使用這些個人特徵。

「在對AI的不信任和對其潛在危害的擔憂普遍存在之時,未經許可使用他人的聲音感覺特別具有侵犯性。」AI語音授權公司——「換音」(Voice-Swap)公司的負責人丹・斯坦恩(Dan Stein)說。

「無論OpenAI是使用史嘉蕾・喬韓森的聲音還是類似聲音來訓練新的『Sky』語音,事實是她拒絕了許可,而她的身份卻被利用了。」

「如果該領域最著名的公司以這種方式行事,這將為版權和同意權樹立一個危險的先例。」

OpenAI一直面臨各種法律挑戰,很多關於該公司如何使用網上受版權保護的信息。

去年12月,《紐約時報》表示計劃對該公司提起訴訟,指控其使用該媒體發表的「數百萬」篇報道來訓練其ChatGPT AI模型。

9月,作家喬治・R・R・馬丁(George RR Martin)和約翰・格里沙姆(John Grisham)也宣布了一項索賠計劃,指控該系統在訓練過程中侵犯了他們的版權。

本文經《BBC News 中文》授權轉載,原文發表於此

延伸閱讀

【加入關鍵評論網會員】每天精彩好文直送你的信箱,每週獨享編輯精選、時事精選、藝文週報等特製電子報。還可留言與作者、記者、編輯討論文章內容。立刻點擊免費加入會員!

責任編輯:翁世航
核稿編輯:丁肇九