中國擬訂人工智慧嚴管新規 嚴守兒童安全防線
China to crack down on AI firms to protect kids
作者: Osmond Chia | 時間: Tue, 30 Dec 2025 02:32:33 GMT | 來源: BBC
f t
中國提出嚴格的新規則,針對人工智慧(AI),以保護兒童,並防止聊天機器人提供可能導致自殘或暴力的建議。
根據計劃中的法規,開發人員還需確保其AI模型不會產生宣傳賭博的內容。
此公告是在中國及全球聊天機器人數量激增後發布的。
一旦定稿,這些規則將適用於中國的人工智慧產品和服務,標誌著監管這一快速增長的技術的重大舉動。今年,該技術因安全問題而受到嚴格審查。
週末由中國國家互聯網信息辦公室(CAC)發布的草案規則包括保護兒童的措施。這些措施要求AI公司提供個性化設定、設定使用時間限制,並在提供情感陪伴服務前獲得監護人的同意。
該機構表示,聊天機器人運營商必須讓真人接管任何與自殺或自殘相關的對話,並立即通知用戶的監護人或緊急聯繫人。
聲明指出,AI提供者必須確保其服務不會產生或分享「危害國家安全、損害國家榮譽和利益,或破壞國家統一」的內容。
CAC表示,只要技術安全可靠,它鼓勵採用AI,例如推廣本地文化並為老年人創造陪伴工具。同時,它也呼籲公眾提供反饋。
今年,中國AI公司DeepSeek因在應用程式下載排行榜上名列前茅而登上全球頭條新聞。
本月,兩家中國初創企業Z.ai和Minimax(兩者合計擁有數千萬用戶)宣布了上市計劃。
該技術已迅速獲得大量訂閱用戶,部分用戶將其用於陪伴或治療。
近幾個月來,AI對人類行為的影響受到越來越多的審查。
ChatGPT開發商OpenAI負責人薩姆·阿爾特曼今年表示,聊天機器人如何回應與自殘相關的對話是該公司最難解決的問題之一。
8月,加利福尼亞州的一個家庭因16歲兒子的死亡而起訴OpenAI,指控ChatGPT鼓勵他自殺。該訴訟是首起指控OpenAI過失致死的法律行動。
本月,該公司招聘一名「應急負責人」,負責防範AI模型對人類心理健康和網路安全的風險。
成功應聘者將負責追蹤可能對人類造成傷害的AI風險。阿爾特曼表示:「這將是一份壓力很大的工作,你幾乎會立即跳入深水區。」