background

2024年7月26日 星期五

时事万象热点评论

谷歌AI語音助理仿真人打電話 我們不該擔心嗎?

姜啟明

2018年5月14日

AA

姜啟明

2018年5月14日

0
0
0
AA

0
0
0
0
0
0
AA

2018年5月14日

姜啟明

2018年5月14日

姜啟明

【新三才編譯首發】5月8日谷歌在I/O會議上最令人印象深刻的演示,就是透過AI語音助理打電話預約理髮。這不是由人類撥打的,而是由谷歌助理撥出的電話,它可以在電話中用自然的語音提出正確的問題、在正確的地方暫停,甚至很人性化的回應「嗯」。

觀眾們都感到震驚,但最令人印象深刻的是,接到電話的人似乎並沒有懷疑他們正在與AI人工智能的機器交談。這對Google來說是一項巨大的技術成就,但它也帶來了打開潘多拉盒子的一系列道德和社會挑戰。

例如,谷歌是否有義務告訴人們他們正在與一台機器通話?模仿人類的技術會削弱我們對所見所聞的信任嗎?這是技術特權的另一個例子,知情者可以減輕他們不想要跟機器的無聊對話,而那些接聽電話的人(很可能是低薪服務工作者)不得不應對一些笨蛋機器人?

谷歌的演示之一完美地展示了這些技巧的工作原理。人工智能能夠解決一系列的誤解,但是通過重新編寫和重複提問來實現。對於與人類交談的計算機程序而言,這種情況很常見。

還有一個更大的警告:如果一個AI電話出現問題時,會有一個人接管。谷歌在其博客文章中表示,Duplex具有「自我監控能力」,可以識別談話何時超越其功能。Google表示:「在這些情況下,它會向可以完成任務的人類操作員發出信號。」這與Facebook的個人助理M類似,該公司的個人助理M公司承諾將使用AI來處理客戶服務情況,但最終將未知數量的此項工作外包給人類。(Facebook在1月份關閉了這部分服務。)

所有這些都讓我們更清楚地了解Duplex可以做什麼,但它並沒有回答Duplex將會產生什麼影響的問題。作為首個演示此技術的公司,Google有責任正視這些問題。

明顯的問題是,如果公司通知人們他們正在與機器人談話?谷歌的工程副總裁Yossi Matias表示這「可能」會發生。許多在這個領域工作的專家都認同,儘管你會告訴某人他們正在與AI交談是一個棘手的問題。如果助理開始打電話說「你好,我是機器人」,那麼接收方很可能會掛斷。更微妙的指標可能意味著限制AI的聲音的真實性或在通話期間包含特殊的聲調。Google表示它希望如此規範,清楚說明來電者是否是AI。「我們應該讓AI聽起來與人類有所不同,這與我們在通常無氣味的天然氣中添加臭味添加劑的原因是一樣的。」

研究AI道德規範的巴斯大學副教授布賴森(Joanna Bryson)表示,Google明確有義務披露此信息。如果機器人可以自由地構成人類,惡作劇的範圍是不可思議的——從詐騙電話到自動騙局。想像一下,有人發出驚恐的電話說附近有槍擊事件。你問他們一些問題,他們的回答足以說服你說他們是真實的,然後掛斷電話。你會擔心嗎?

但是布賴森教授說,讓公司自己管理這些是不夠的,需要製定新的法律來保護公眾。「除非我們加以規範,否則一些不像Google這樣顯眼的公司將利用這項技術。」布賴森說。「Google可能可以做對事,但並不是每個人都會這樣做。」

如果這種技術變得普遍,它會產生其他更微妙的影響,這種影響無法立法。《大西洋》雜誌撰稿人Alexis Madrigal表示閒聊具有無形的社會價值。他引用了城市主義者雅各布斯(Jane Jacobs)的話,他說「地方層面的臨時性公共接觸」創建了一個「公眾尊重和信任網絡」。如果我們給人們另一種避免社交互動的選擇,無論多麼微小,我們會失去什麼?人工智能手機通話的效果可能會讓我們都變得粗魯一點。如果我們無法分辨手機上的人與機器之間的差異,我們是否會懷疑所有電話交談?我們可能會在通話過程中開始切斷真實的人,告訴他們:「閉嘴,讓我跟人說話。」如果我們更容易在餐廳預訂餐廳,我們可以利用這一事實並預訂它們更具投機性,不關心我們是否真的沒有出現?(谷歌告訴The Verge,它會限制企業每天從助理接到的電話數量,以及助理可以撥打的電話數量,以阻止人們使用該服務進行垃圾郵件。)

這些問題沒有明顯的答案,但正如布賴森指出的那樣,谷歌至少通過引起人們對這項技術的關注來為全球提供服務。它不是唯一開發這些服務的公司,它當然不會是唯一使用它們的公司。「這是一個巨大的交易,他們正在展示它。」布賴森說。「他們繼續做演示和視頻是非常重要的,這樣人們就可以看到這種情況正在發生[...]我們真正需要的是知情的公民。」換句話說,我們需要在機器人開始就這一切進行談話之前為我們自己發聲。

(編譯:王明真)

(責任編輯:姜啟明)

(文章來源:新三才編譯首發)

免费订阅精彩内容免费订阅

標籤:

评论留言