複製聲音
2024年2月17日—2023年11月美國學者發布了反偽聲的AntiFake,原理是稍微扭曲或擾動原始音檔,加入人類聽不到的細小雜訊,讓音檔無法用於AI模型。,2024年3月31日—這幾天,OpenAI則是以類似的策略宣告了他們僅需15秒語音樣本即可複製生成出合成語音的VoiceEngine的存在...
接陌生電話「避免AI複製聲音」別出聲?專家曝3關鍵
2024年4月13日—台灣事實查核中心指出,近日LINE、社群流傳一段文字訊息,內容提醒民眾接到陌生電話後先不要講話,且對方若不出聲,應直接掛斷,以避免AI複製自己的聲音。
** 本站引用參考文章部分資訊,基於少量部分引用原則,為了避免造成過多外部連結,保留參考來源資訊而不直接連結,也請見諒 **