會做飯的小狗”視頻,,多少人真的信了?
關(guān)于AI的冷思考之三
社交平臺截圖
AI 詐騙,隨處可見
相比于AI幻覺,,程序開發(fā)人員小路認(rèn)為,AI造假更值得警惕,,“它是人為利用AI生成虛假內(nèi)容甚至欺詐的行為,。”
事實(shí)上,,AI換臉,、變聲等詐騙事件已經(jīng)屢見不鮮:直播間里,AI換臉“偽造院士”兜售假大米,、智能剪輯炮制抗癌神藥“逆天療效”,,算法精準(zhǔn)推送“根治高血壓”騙局……
2022年至2024年初,中國共發(fā)生“AI 換臉”類詐騙案近百起,,累計(jì)給人民群眾造成經(jīng)濟(jì)損失高達(dá)2億元,。
AI的偽造技術(shù),同樣困擾著在人民法院工作的法官張一涵,。最近她負(fù)責(zé)的一起勞動訴訟案件中,,勞動者提供的證據(jù)就被懷疑“有AI造假的可能”。
“這是一段用人單位管理者的錄音,,錄音內(nèi)容是關(guān)于強(qiáng)制加班并拒絕支付加班費(fèi)的,。但用人單位表示,該管理者并未發(fā)表過類似言論,,勞動者提供的錄音‘是由AI合成的’,。”張一涵說,。
圖源:視覺中國
“這段錄音在人聽來完全沒有任何問題,。不僅語音語調(diào)正常,也能聽出來其中的憤怒,、激動等情緒,。”張一涵說,,“目前的法律法規(guī)尚未明確規(guī)定 AI 生成證據(jù)的性質(zhì),、效力和認(rèn)定標(biāo)準(zhǔn),這使得在判斷 AI 偽造證據(jù)的合法性時(shí),,缺乏明確的法律依據(jù),。”


