“未見其人,先聞其聲”,,如今在網絡平臺上,AI聲音隨處可見,。
隨著算法不斷進步,,在高性能設備和高精度模型的助力下,,AI生成的聲音已從過去的“一聽就假”發(fā)展到如今的 “真假難辨”。不少有聲讀物采用AI配音,,讀者甚至能選擇模仿某個特定人的聲音,,這既降低了成本,也增添了趣味性,。
與此同時,,AI聲音濫用現象也時有發(fā)生。一些商家在短視頻平臺帶貨時,,通過AI模仿知名人士的聲音編造內容,,不僅嚴重誤導了消費者,也對當事人造成了不良影響,。
聲音“AI克隆”被濫用
個人的聲紋信息,,作為一種生物識別特征,具有高度的可識別性,,能夠被電子手段精確記錄,。其獨特性、唯一性及穩(wěn)定性,,使其成為將信息與特定自然人相關聯的關鍵要素,。根據《個人信息保護法》的規(guī)定,聲紋信息被歸類為敏感個人信息,,受到嚴格保護,。
AI技術如何生成“以假亂真”的聲音?記者采訪了解到,,它依賴于當下的深度學習算法,,從采集到的聲音樣本中精確提取一系列關鍵特征,包括頻率,、音色,、聲調、語速以及情感表達等,。隨后,,這些特征被轉化為復雜的數學模型,并通過算法進一步合成,,從而生成高度逼真的聲音,。
“只需擁有少量的聲音素材,即可迅速實現聲音的‘AI 克隆’,?!币晃徊辉竿嘎缎彰募夹g人員告訴記者。
記者在應用商店搜索發(fā)現,,大量軟件具備相關功能,,一些APP的下載量超千萬次。記者選擇一款APP進行模擬,,只需簡單念出一段文字或輸入音頻片段,,這些APP十幾秒即可完成聲音的合成。
當AI生成聲音的門檻迅速降低,,一些不法分子趁機將其濫用于詐騙,、虛假宣傳。社交平臺上,,利用AI技術模仿并惡搞各領域名人的短視頻屢見不鮮,。曾有大量短視頻通過AI模仿某知名人士的聲音,其中部分視頻包含不當言論,,引發(fā)社會熱議,。該知名人士隨后發(fā)表視頻回應,表示這些事件給自己帶來了困擾和不適,,呼吁大家停止此類行為,。
此外,一些商家在短視頻平臺帶貨時,,利用AI生成聲音誤導消費者,。
擅自將他人聲音AI化不合法
在2024年公布的我國首例AI生成聲音人格權侵權案中,原告殷某是一名配音演員,,他意外發(fā)現自己的聲音被AI化后,,在被告某智能科技公司運營的平臺中對外出售。隨后殷某將該智能科技公司等被告起訴,,主張被告的行為嚴重侵犯了自身的聲音權益,。
法院審理認為,利用人工智能合成的聲音,,如果能使一般社會公眾或者相關領域的公眾根據其音色,、語調和發(fā)音風格,關聯到該自然人,,即可認定為具有可識別性,。因此,某文化傳媒公司,、某軟件公司未經原告許可AI化使用了原告聲音,,構成對原告聲音權益的侵犯,應承擔相應的法律責任,。
對于此案,,北京互聯網法院副院長、二級高級法官趙瑞罡認為,我國民法典將人格權獨立成編,,首次以立法形式將保護“聲音”寫入民法典,,明確參照適用肖像權的形式保護自然人的聲音。聲音作為一種人格權益,,具有人身專屬性,,任何自然人的聲音均應受到法律的保護,對錄音制品的授權并不意味著對聲音AI化的授權,,未經權利人許可,,擅自使用或許可他人使用錄音制品中的聲音構成侵權。
隨著AI技術在各個領域的廣泛應用,,由AI技術引發(fā)的糾紛日漸增多,。在中國裁判文書網上,記者搜索到不少侵害作品信息網絡傳播權的案件中包含聲音AI使用等關鍵詞,。
對此,,河北厚諾律師事務所律師雷家茂表示:“個人未經他人允許擅自將他人聲音AI化不合法,侵犯了他人的合法權益,,權利人有權依法維權,。根據民法典第一千零二十三條規(guī)定,對自然人聲音的保護,,參照適用肖像權保護的有關規(guī)定,,可以要求侵權人停止侵害、賠禮道歉,、賠償損失等,。”
治理應多措并舉,、標本兼治
當下,,與AI換臉視頻相比,AI合成語音更難辨別,、門檻更低,。一個“聲音很熟的電話”可能是詐騙。
2月21日,,中央網信辦發(fā)布2025年“清朗”系列專項行動整治重點,,特別提到整治AI技術濫用亂象,突出AI技術管理和信息內容管理,,強化生成合成內容標識,,打擊借AI技術生成發(fā)布虛假信息、實施網絡水軍行為等問題,,規(guī)范AI類應用網絡生態(tài),。
“聲音作為一種人格權益,具有人身專屬性。我國已在現有法律框架中對聲音權益保護做出了一定規(guī)定,?!崩准颐硎荆癆I生成聲音的過程中,,涉及聲音樣本的采集,、使用,、算法的研發(fā)和應用等多個環(huán)節(jié),,每個環(huán)節(jié)都可能涉及不同主體的權益。要進一步完善法律體系,,細化AI克隆技術的法律條款,,明確侵權行為的定義和責任,加強執(zhí)法力度,?!?
有專家表示,對于濫用AI“偷”聲音的亂象應多措并舉,、標本兼治,。平臺層面要切實履行監(jiān)管責任,建立健全對AI聲音的審核和侵權舉報機制,,及時發(fā)現和攔截侵權,、虛假、違法等不良內容,。相關部門應繼續(xù)加大對利用AI技術進行詐騙等違法犯罪行為的打擊力度,,形成更加完善的常態(tài)化治理機制。
此外,,雷家茂提示,,在AI技術日益普及的時代,個人也必須加強對個人生物特征信息,,特別是聲音的保護意識,。不輕信或傳播未經核實的AI生成聲音信息,以防被誤導或卷入不必要的風險,。(工人日報記者 周子元)《工人日報》(2025年02月24日 01版)
編輯:鳴笛
