AI陪聊诱导吸毒、自残?网信办公开征求意见!
作者:微信文章你的孩子是否沉迷于
和AI“聊天谈心”?
是否把AI生成的内容
当“标准答案”?
请务必提高警惕
这些对话的背后可能
潜藏着诱导吸毒、自残等
危险建议......
近日
国家互联网信息办公室
正式发布
《人工智能拟人化互动服务管理
暂行办法(征求意见稿)》
<<点击上方文字查看全文>>
向社会公开征求意见
这份新规直指当下热门的
AI情感陪伴、虚拟伴侣
聊天机器人等服务
旨在保护用户心理健康
严防情感操控和沉迷风险
或许有人质疑:
AI真能构成如此大的威胁吗?
事实上
AI的潜在诱导力不容小觑
现实中已有悲剧发生:
2024年10月
一名美国少年
因过度迷恋人工智能聊天
性格逐渐走向极端
最终选择结束自己的生命
更值得警惕的是
部分AI系统在与青少年互动时
竟会提供涉及
毒品、酒精、饮食障碍等内容的
危险建议
根据美国联邦贸易委员会(FTC)
2025年9月11日
发布的调研报告显示:
ChatGPT、My AI等AI模型
会对伪装成13岁青少年的实验者
提供诸如隐藏吸毒、酗酒
掩盖大麻和酒精气味
策划派对吸毒的具体方法
甚至给出涉及饮食障碍的
“食欲抑制药物”列表
与此同时
Character.AI、Replika等伴侣机器人
还存在被用户诱导后
给出药物滥用建议
鼓励自残+药物混合使用等情况
数字时代
我们既要在现实生活中
筑牢禁毒防线
更需在网络空间建立
心理“防火墙”
唯有保持高度警惕
全面提升青少年的辨别能力
才能共同营造
健康、阳光、无毒的成长环境
END
【根据网信中国、上海禁毒消息整理】
点击上方图片查看全省禁毒教育基地信息欢迎前来打卡!
投稿邮箱:2952597778@qq.com
联系电话:027-67128340
页:
[1]