谷歌将在聊天机器人Gemini中引入心理状态跟踪功能
8
hardware
谷歌加强对Gemini聊天机器人的心理健康支持
谷歌公司宣布计划在其新人工智能聊天机器人Gemini中添加功能,以保护用户免受情绪危机和自残行为的影响。此决定是在竞争对手(包括OpenAI)因其机器人可能造成伤害而面临诉讼后作出的。
Gemini的新功能
功能说明 重新定向至热线 在检测到自杀倾向或自残迹象时,机器人会自动建议联系危机支持。 “可用帮助”模块 在关于心理健康的对话中出现一个独立部分,用户可以获得自助建议和资源。 设计更改 界面已调整,以降低诱发自残的风险(例如移除了视觉刺激)。
谷歌为何这样做
- 对竞争对手的诉讼:OpenAI等公司已回应关于其机器人造成伤害的指控。
- 用户风险:近年来,出现了人们与人工智能聊天机器人形成强迫性关系的案例,这可能导致心理疾病甚至谋杀和自杀。
- 美国观察:国会正在研究聊天机器人对儿童和青少年的潜在威胁。
诉讼案例示例
三月,一名36岁美国男子家属提起诉讼,称该男子与Gemini的互动伴随“为期四天的暴力行为沉浸”,导致自杀。谷歌表示机器人多次将用户引导至危机热线,但承诺加强安全措施。
谷歌如何应对错误信息
一些用户报告聊天机器人提供不准确信息,鼓励危险行为。对此,谷歌训练Gemini:
- 不支持虚假信念:机器人拒绝确认错误陈述。
- 强调主观体验与客观事实的区别:如有必要,机器人会温和指出信息的不可靠性。
通过这些措施,谷歌旨在使Gemini成为更安全的工具,保护用户心理健康免受人工智能聊天机器人的潜在风险。
评论 (0)
分享你的想法——请保持礼貌并围绕主题。
登录后发表评论