日前傳出Google內部要求員工必須每天花費2-4的小時,以人力互動方式與日前公布的對話式人工智慧模型「Bard」進行對話,而在進一步說法中更指出,負責Bard項目主管Jack Krawczyk希望Google員工提問個人喜好內容,或是擅長領域等相關問題,並且評估Bard所作回答是否正確,藉此確保回答內容可以令人滿意。
從先前Google與微軟所作技術展示,以及使用者實際互動體驗結果,可以發現結合人工智慧技術的搜尋服務雖然可以很快給出相應解答,但其中可能包含老舊、過時,或是錯誤內容。
例如Google的新版搜尋服務在解答韋伯太空望遠鏡相關提問時給出明顯錯誤資訊,而微軟的新版Bing搜尋服務在進行過多次數的互動後,就會出現截然不同性格的互動口吻,甚至批評與其互動的使用者。
不過,即便是目前OpenAI快速走紅的ChatGPT,其實也會給出錯誤解答,因此也反應再怎樣模仿人類互動口吻,並且能透過自動生成人工智慧技術產生內容的聊天機器人,背後依然取決資訊內容分析、整合,而這些內容多半會取自網路,導致在學習訓練比重不足情況下,加上原始取得資訊內容正確與否,就會造成人工智慧總結給出答案產生偏差。
因此,Google內部希望透過有不同喜好、擅長領域的員工與Bard進行互動,並且審視Bard給出答案是否正確,同時也進一步確認Bard所給出答案呈現方式能否讓一般人理解、易讀,若員工發現Bard給出答案有明顯錯誤、偏差,即可提出反饋意見作為Bard系統修正參考依據。
但是畢竟僅仰賴Google員工進行特定內容互動作為訓練的成效依然有限,因此Google未來有可能會透過強化學習與監督式學習方式訓練Bard,另一方面也有可能透過過濾訓練資料正確與否,內容是否與時俱進,並且以更具結構化形式資料進行訓練,藉此提高Bard給出答案的正確性與可靠度。
其實,從過往許多人使用的搜尋引擎服務,系統完成的是將最符合、貼近使用者輸入關鍵字詞的網頁內容逐一條列,但使用者本身依然要具備內容審視能力,而在目前各家業者開始推行以聊天機器人自然提問互動方式的「搜尋」模式,更凸顯使用者必須隨時具備「質疑」心態,即便人工智慧能快速彙整、摘要長篇內容重點,或是在更短時間內協助尋找網頁資訊,最終判斷內容是否正確還是會落在使用者身上,不能僅只是一昧信任人工智慧所給「解答」,因為不一定正確。