文:陳品潔

人工智慧(Artificial Intelligence,AI)造就劃時代的新局面,英國首相蘇納克(Rishi Sunak)提到:「諸如工業革命、電力的發明或網路的誕生一般,帶來深遠變化。」如何駕馭這門潛力十足又具風險的新技術,成為一大挑戰。

歐盟執委會(European Commission)早在2021年4月21日提議,並於2023年6月14日通過《人工智慧法案》(Artificial Intelligence Act,AI Act),為歐盟(EU)提出首個共同的AI監管架構。

美國拜登政府則於2023年10月30日頒布「安全、可靠、值得信賴的開發和使用人工智慧之行政命令」,即使AI足以解決許多緊急危機,卻也可能使「詐騙、歧視、偏見和假消息等社會危害更加惡化」,成為國家安全隱患。

英國於布萊切利公園(Bletchley Park)11月1日和2日召開人工智慧峰會,齊聚全球相關領域的代表與專家,此處也是英國電腦科學、人工智慧之父艾倫.圖靈(Alan Turing)於二戰期間工作的場所。

當年圖靈預言了機器表現出「智慧」(Intelligence)的到來,於1950年提出如何分辨「人」與「機器」的「圖靈測試」,如今AI科技以假亂真,越來越難以辨識眼前回應的是真實人類或為生成腳本。

泰勒絲說外國腔中文?AI假訪問對上嘴型

曾任字節跳動(TikTok母公司)主管的梁望,與曾於美國社交與圖片分享軟體Snap工作的徐卓(Joshua Xu),在中國共同創立了「詩云科技」,開發了AI影片產生器「HeyGen」,號稱「影音版的Google翻譯」。

《深圳商報》報導,徐卓認為業界多半在改善相機特效與濾鏡,詩云科技希望以「內容生成代替拍攝」,並圍繞在臉部、身體、環境的生成,設想未來用不同語言製作影音內容和資訊傳播,「將變得像打字一樣簡單」。

結合語言模型(Voice Clone)與影像技術(AI Avatar),跨語言的虛假訪問(fake interview)彈指生成,聲音對上了影片人物的嘴型與表情變化,其中代表作為美國流行天后泰勒絲(Taylor Swift)以中文侃侃而談,語氣帶點非母語中文使用者的特殊口音,擬真程度相當高。

新型網路犯罪,AI詐騙層出不窮

AI不僅能生成文字與圖片,同時廣泛應用於程式碼、配音、音樂、創作、影片等多領域,伴隨而來版權、肖像權、著作權等侵權爭議。如涉及真實人物,內容卻是無中生有,導致假消息傳播與新型網路犯罪等問題。

中國今年爆發多起「AI詐騙」。福建福州市某科技公司郭姓代表10分鐘內遭騙430萬元人民幣,當時撥打視訊電話的郭先生不疑有他,直接匯款給自稱友人的不法人士 。

《中國新聞網》報導假冒受害者家人被綁架的案件,因電話另一頭聲音與長相神似,受害者險些蒙受金錢損失。文章分析,受害者在網路分享過照片、影片,使對方有機可乘 。

美國智庫「布魯金斯學會」(Brookings)文章指出,OpenAI的阿特曼(Sam Altman)在2023年5月16日證詞中認可了聯邦監管AI機構的設立。代表微軟的史密斯(Brad Smith)和代表Meta的祖克柏(Mark Zuckerberg)此前均支持政府AI專門單位 。

布魯金斯學會文章提到,AI只要取得短短三秒的聲音,即能透過模型高度還原的訊息,甚至足以對話,犯案過程全程自動化,速度之快、訊息之逼真,監管機構將難以一網打盡。

AI可以被「控制」?聯合國緊急開會討論

聯合國秘書長古特雷斯(António Guterres)在2023年7月,召開了有史以來第一次以AI為主題的聯合國安理會會議,討論潛在風險、是否受到監管,與監管程度。

會中提到AI驅動的網路攻擊、系統故障、傳播資訊,甚至AI與核武等多領域。古特雷斯表示:

「如果不採取行動因應這些危機,是失職行為。這是對當代及子孫後代的責任。」

英國廣播公司BBC報導,維基百科創始人威爾士(Jimmy Wales)對於AI可以被控制的想法不可置否。

他認為,如聯合國這樣的機構監管AI,就像建議聯合國監管Photoshop,是毫無意義的。投入人工智慧領域45年的專家哈倫(Pierre Haren)則指出,總有北韓和伊朗等不配合AI監管的國家,不能防止他們的AI技術發展失去控制。

聯合國「AI For Good」計畫發起人、物理學家雪爾(Reinhard Scholl)解釋監管的必須性,「物理學家理論上知道如何製造核彈,實際上做出來卻異常艱難。」一旦AI使得致命武器更容易取得,「那麼就會有人付諸行動」。

歐盟及中國監管AI,美國著重技術創新

中國推出的AI規則旨在維持執政的控制與權力。《紐約時報》報導,生成內容需體現「社會主義核心價值觀」,「不得含有顛覆國家政權」或「破壞國家統一」。

《經濟學人智庫》(Economist Intelligence Unit,EIU)分析,歐盟領銜祭出最嚴格且影響規模最大的人工智慧監管規則。具有不可接受風險的AI將被禁止;風險高的AI進入市場前,需要註冊並持有符合性聲明。

受版權保護的素材,與《一般資料保護規範》(General Data Protection Regulation, GDPR)保障個資及隱私,其存取與使用權也成為焦點。

EIU指出,假資訊、工作機會流失或加深偏見均為AI監管重點之一。每個地方希望制定出自己的一套規則。與歐盟相較,美國更青睞技術創新,政府監管將受到阻礙。

哥倫比亞大學法學教授布拉德福德(Anu Bradford)告訴《麻省理工科技評論》(MIT Technology Review),美國國會陷入兩極分化嚴重、功能失調,短期不太可能制定有意義的人工智慧法律。

儘管拜登AI行政命令立下里程碑,然而其「更強調建立最佳實踐標準,而非執行面」。布拉德福德表示,主要依舊仍仰賴科技公司的自願配合。

儘管有諸多指導原則,如何落實的具體細節尚不清楚,包含如何防止AI演算法加劇住房、社會福利和刑事司法歧視。

AI技術開發,須與美國聯邦政府共享安全測試結果

拜登的第一個AI行政命令分為八大目標,包含:人工智慧安全新標準;保護美國人隱私;促進平等和公民權利;維護消費者、病人和學生權益;支援勞工;促進創新與競爭、提升美國於海外的領導力;確保政府負責任、有效使用人工智慧。

該行政命令援引1950年《國防生產法》(Defense Production Act),要求有任何國安疑慮的AI模型開發時,須與聯邦政府共享所有安全測試結果。

美國能源部與國土安全部也會因應AI對於基礎設施的威脅可能,並包含化學、生物、放射物、核子和網路多重安全風險,並成立人工智慧安全委員會。

美國政府要求頂尖的AI系統的開發商與聯邦政府共享安全測試結果和關鍵資訊。《哥倫比亞新聞評論》(Columbia Journalism Review)專文指出,目前OpenAI、Google和微軟的AI達到此門檻。

為了辨識出深度造假(deepfakes)與不實資訊,其中一項解決為將AI成果印上專屬的浮水印標籤。《麻省理工科技評論》報導,Google DeepMind 開發了新的浮水印工具「SynthID」,可以標記影像是否由AI產生的。

然而,由於AI內容識別技術仍處開發階段,成效引起多方疑慮。

讓AI更公平,標準由誰而定?

《哈佛商業評論》指出,AI增加了潛在偏見,產生任何缺失,結果可能影響數百萬人,使公司面臨集體訴訟。多數情況下,AI模型的問題來自於訓練模型的資料庫,一旦數據有刻板印象,AI汲取後會放大偏見,如微軟使用推特發文(現為X公司)訓練聊天機器人,並在上線第二天就出現煽動、種族主義的狀況回報。

文章提到,理論上可以將平等概念的程式碼輸入到系統中,使系統避免偏差行為,然而,不同人對「公平」的概念可能相當不一致,特定狀況下更容易被用於利害關係。

參考來源

更多卓越電子報文章

本文經卓越新聞電子報授權轉載,原文發表於此
原標題:AI時代危機 假訪問、新型詐騙亂真 監管挑戰迫在眉睫

延伸閱讀

【加入關鍵評論網會員】每天精彩好文直送你的信箱,每週獨享編輯精選、時事精選、藝文週報等特製電子報。還可留言與作者、記者、編輯討論文章內容。立刻點擊免費加入會員!

責任編輯:鍾宇筑
核稿編輯:丁肇九