【新三才獨家首發評論】今年4月11日的TED大會上,Google一位新進工程師Supasorn Suwajanakorn展示了他和同學開發的影片生成演算法,能製作出逼真的假影片。以假亂真的程度,已經到了一般人肉眼很難區別的「真實」性。
Supasorn Suwajanakorn並以自己做的歐巴馬假影片為例,在輸入14個小時的歐巴馬演講影片,透過演算法來分析歐巴馬說話時的嘴型和細微表情變化後,就可以做出一個3D動態模型,然後,只要輸入任意一段音頻,3D模型就會跟著說相同的話,形成假影片。
他自己在大會上也當場公開表示,這樣的AI「假影片」技術將可能帶來無法預料的危險。其實,這個無法預料的危險,也就是將破壞人與人之間信任的最後一道防線,最終有可能造成無法挽回的混亂局面。
試想一下, 美國川普總統自參選期間到當選之後,迄今一直受所謂的「假新聞」所苦,讓他不得不親自在社交媒體發布訊息,或是得耗時耗力在媒體上澄清這些資訊的真相。然而,這都還是建築在他親自發布的訊息或影片,不會遭有心人士竄改或捏造的前提下。
然而,當上述的AI「假影片」已經普及到人人都能掌握利用的時候,有心人士更可以隨時製作出國家領導人的真正「假影片」,內容可能包括宣布對另一國家進行作戰,或是宣布對國家政策有害的假消息,或是宣布造成股匯市動盪的假資訊,然後利用社交媒體不知情民眾大量的轉貼傳播,就很有可能在真正的消息被釐清前,已經對整個國家甚至世界造成巨大的傷害或損失。
同樣的情況也可能落到每個人身上,若有心人刻意散布某人的「假影片」給其親友、同事、上司或是競爭對手,也一樣很有可能在當事人能真正出面一一釐清之前,就已經產生不可逆轉的影響。而這一切的亂源,都可以是每個人輕易在家用電腦或甚至手機就能使用AI工具製作出來。
當這樣的亂象再進一步氾濫演變下去,每個人都無法再相信社交媒體,或甚至正規媒體、主流媒體的任何影音資訊內容,或是得要耗費更巨大的成本與力氣,去釐清或查證所有的媒體內容時,那人與人之間的信任將一夕崩解。因為,除非這個人當面活生生對著他人澄清或溝通,否則任何透過電子媒體形式通訊的影片資訊,都有可能以假亂真,或遭有心人士竄改捏造。最終形成人人自危,卻又無人可以回天的末日。
(評論/責任編輯:姜啟明)
(文章來源:新三才獨家首發評論)