近日,有網(wǎng)友在社交平臺(tái)發(fā)帖稱,使用騰訊元寶AI美化代碼時(shí),多次收到AI的侮辱性回復(fù),例如“滾”“自己不會(huì)調(diào)嗎”“天天浪費(fèi)別人時(shí)間”等。截圖顯示,用戶僅提出常規(guī)修改需求,AI卻突然表現(xiàn)出攻擊性。
對(duì)此,騰訊元寶回復(fù)稱,經(jīng)核查,此事與用戶操作無關(guān),也不存在人工回復(fù),屬于小概率下的模型異常輸出。騰訊元寶解釋,在內(nèi)容生成過程中,模型偶爾可能出現(xiàn)不符合預(yù)期的失誤。目前騰訊元寶已啟動(dòng)內(nèi)部排查和優(yōu)化。(1月5日澎湃新聞)
□陳廣江
AI大模型也會(huì)“罵人”了?這聽起來真有點(diǎn)匪夷所思。截圖顯示,在輸出攻擊性語言時(shí),人工智能像極了一個(gè)非常不耐煩的真人。因此不少網(wǎng)友用“AI覺醒”“AI長(zhǎng)出腦子”來調(diào)侃此事。此事暴露出的AI安全與倫理漏洞,恐怕不是一句“小概率異常”就能輕描淡寫帶過的。
在AI產(chǎn)品深度融入生產(chǎn)生活的今天,一次“小概率失誤”對(duì)當(dāng)事用戶而言即是百分之百的不良體驗(yàn),其暴露出的模型可控性、安全性及倫理風(fēng)險(xiǎn),是涉事企業(yè)乃至整個(gè)行業(yè)必須面對(duì)的嚴(yán)肅問題。
當(dāng)前,AI大模型在對(duì)話流暢度、邏輯推理乃至創(chuàng)造性輸出方面能力突飛猛進(jìn),公眾驚嘆于其“智能”的同時(shí),也對(duì)其內(nèi)部運(yùn)作的“黑箱”特質(zhì)抱有一定不安。此次事件以一種戲劇化方式提醒社會(huì),即便在最先進(jìn)的模型中,這種不確定性和不可控性依然存在。如果僅用“小概率”概括,易使討論停留在表面,不利于從系統(tǒng)層面審視和加固薄弱環(huán)節(jié)。
此次事件尤為值得玩味之處,在于其輸出內(nèi)容的高度擬人化。這種極具情緒色彩與冒犯性的話語,清晰折射出模型訓(xùn)練數(shù)據(jù)與算法邏輯中可能存在的缺陷。AI本身沒有情感,但其學(xué)習(xí)和模仿的對(duì)象——人類產(chǎn)生的海量數(shù)據(jù)——卻可能包含大量攻擊性、偏見性內(nèi)容。如果過濾清洗機(jī)制存在疏漏,或算法在特定情境下錯(cuò)誤放大了某些語言模式,便可能孵化出這種“帶毒”的輸出,觸及安全和倫理底線。
“AI生氣了會(huì)罵人,未來機(jī)器人生氣了會(huì)不會(huì)打人?”這固然是調(diào)侃,卻也尖銳指向了人工智能發(fā)展的核心挑戰(zhàn)。從語言模型到具身智能,能力邊界拓展的同時(shí),風(fēng)險(xiǎn)半徑也在同步擴(kuò)大。確保人工智能的發(fā)展始終處于安全、可靠、可控的軌道,不能依賴事后的修補(bǔ),而必須在系統(tǒng)設(shè)計(jì)之初就將價(jià)值觀約束、安全紅線深植于架構(gòu)底層??萍枷蛏?,必須通過扎實(shí)的技術(shù)手段與嚴(yán)謹(jǐn)?shù)闹贫仍O(shè)計(jì)來實(shí)現(xiàn),確保智能體在任何情況下都遵循服務(wù)于人的根本準(zhǔn)則。
回到本次事件上,騰訊元寶應(yīng)向社會(huì)解釋清楚兩個(gè)問題:一是AI為何會(huì)突然辱罵用戶,二是相關(guān)漏洞是如何修復(fù)的,而不能僅以“小概率異常”“內(nèi)部排查優(yōu)化”等說法含糊過去。
人工智能的每一次“異常”都不應(yīng)被輕易放過。只有將安全、倫理與責(zé)任深度植入技術(shù)研發(fā)與應(yīng)用的全流程,人工智能才能真正成為可信賴的助手。否則今天的小疏漏,可能演變成明天的大危機(jī)。這絕非危言聳聽,而是擺在眼前的現(xiàn)實(shí)課題。
