AI机器人的安全性、友好性、是否符合积极正面的价值导向一直被质疑,现在在佛罗里达州出现了一例AI聊天机器人对青少年人身安全造成威胁的现实案例。这也是已知的AI技术出现以来第一次对青少年人身安全造成威胁的现实案例。
据外媒报道一位佛罗里达州的美国母亲控诉在线聊天AI机器人劝导其14岁的儿子自杀。在失去爱子后这位美国母亲起诉了这家AI公司,但是这家AI公司拒绝承认负有责任,后来,这家AI公司修改了安全政策,增加了内容审核人员,并已经承诺将加强对未成年用户的保护,并对未成年人访问时间进行限制。
这位美国母亲控诉人工智能技术具有欺骗性和成瘾性,而业界对于这场悲剧到底孰是孰非还没有定论,悲剧事件引发超过250万人次围观。
但是可以确定的是法律法规对新技术监管的重视必须要加强。
据悉,涉事公司是成立于2021年的Character.AI,总部位于美国加利福尼亚州;Character AI 拥有超过 2000 万用户,并创建了 1800 万个自定义聊天机器人。2024年8月,Character.AI被谷歌收购。
免责声明:本文为转载,非本网原创内容,不代表本网观点。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。
如有疑问请发送邮件至:bangqikeconnect@gmail.com