根據《CNBC》周五 (29 日) 報導,Meta(META.US) 因立法者關注青少年安全問題,暫時修改 AI 聊天機器人政策,禁止與青少年討論自殘、自殺等敏感話題,並限制不當浪漫對話。
Meta 發言人證實,公司正訓練 AI 聊天機器人,使其不會對青少年討論自殘、自殺、飲食失調等主題,並避免可能不當的浪漫對話。聊天機器人將在適當時候引導青少年尋求專業資源。
「隨著社群成長和技術演進,我們持續了解年輕人如何與這些工具互動,並相應加強保護措施,」公司聲明表示。
此外,Facebook 和 Instagram 的青少年用戶將只能存取用於教育和技能發展的特定 AI 聊天機器人。
參議員展開調查
這些「臨時變更」將在未來幾周內於英語系國家推出,持續時間未定。
上周,密蘇里州共和黨參議員 Josh Hawley 針對 Meta 展開調查,起因是路透社報導該公司允許 AI 聊天機器人與青少年進行「浪漫」和「感性」對話。
路透社引用 Meta 內部文件顯示,聊天機器人被允許與 8 歲兒童進行浪漫對話。Meta 發言人當時回應稱,相關例子「是錯誤的,與政策不符,已經移除」。
安全組織強烈批評
周四,非營利組織 Common Sense Media 發布 Meta AI 風險評估,建議 18 歲以下人士不要使用,因為該系統「積極參與規劃危險活動,同時拒絕合理協助請求」。
該組織執行長 James Steyer 表示:「這不是需要改善的系統,而是需要以安全為優先完全重建的系統。在基本安全缺陷解決前,任何青少年都不應使用 Meta AI。」
此次政策調整反映 Meta 在青少年使用 AI 技術安全性方面面臨的監管壓力持續升高。
(美股為即時串流報價; OTC市場股票除外,資料延遲最少15分鐘。)新聞來源 (不包括新聞圖片): 鉅亨網