background

2024年12月26日 星期四

时事万象热点评论

正評論:AI「假影片」技術將瓦解人對人的信任

姜啟明

2018年5月1日

AA

姜啟明

2018年5月1日

0
0
0
AA

0
0
0
0
0
0
AA

2018年5月1日

姜啟明

2018年5月1日

姜啟明

【新三才獨家首發評論】今年4月11日的TED大會上,Google一位新進工程師Supasorn Suwajanakorn展示了他和同學開發的影片生成演算法,能製作出逼真的假影片。以假亂真的程度,已經到了一般人肉眼很難區別的「真實」性。

Supasorn Suwajanakorn並以自己做的歐巴馬假影片為例,在輸入14個小時的歐巴馬演講影片,透過演算法來分析歐巴馬說話時的嘴型和細微表情變化後,就可以做出一個3D動態模型,然後,只要輸入任意一段音頻,3D模型就會跟著說相同的話,形成假影片。

他自己在大會上也當場公開表示,這樣的AI「假影片」技術將可能帶來無法預料的危險。其實,這個無法預料的危險,也就是將破壞人與人之間信任的最後一道防線,最終有可能造成無法挽回的混亂局面。

試想一下, 美國川普總統自參選期間到當選之後,迄今一直受所謂的「假新聞」所苦,讓他不得不親自在社交媒體發布訊息,或是得耗時耗力在媒體上澄清這些資訊的真相。然而,這都還是建築在他親自發布的訊息或影片,不會遭有心人士竄改或捏造的前提下。

然而,當上述的AI「假影片」已經普及到人人都能掌握利用的時候,有心人士更可以隨時製作出國家領導人的真正「假影片」,內容可能包括宣布對另一國家進行作戰,或是宣布對國家政策有害的假消息,或是宣布造成股匯市動盪的假資訊,然後利用社交媒體不知情民眾大量的轉貼傳播,就很有可能在真正的消息被釐清前,已經對整個國家甚至世界造成巨大的傷害或損失。

同樣的情況也可能落到每個人身上,若有心人刻意散布某人的「假影片」給其親友、同事、上司或是競爭對手,也一樣很有可能在當事人能真正出面一一釐清之前,就已經產生不可逆轉的影響。而這一切的亂源,都可以是每個人輕易在家用電腦或甚至手機就能使用AI工具製作出來。

當這樣的亂象再進一步氾濫演變下去,每個人都無法再相信社交媒體,或甚至正規媒體、主流媒體的任何影音資訊內容,或是得要耗費更巨大的成本與力氣,去釐清或查證所有的媒體內容時,那人與人之間的信任將一夕崩解。因為,除非這個人當面活生生對著他人澄清或溝通,否則任何透過電子媒體形式通訊的影片資訊,都有可能以假亂真,或遭有心人士竄改捏造。最終形成人人自危,卻又無人可以回天的末日。

(評論/責任編輯:姜啟明)

(文章來源:新三才獨家首發評論)

免費訂閱精彩內容免費訂閱

标签:

評論留言