美国联邦贸易委员会近日正式对七家科技巨头展开全面调查,涉及人工智能聊天机器人在未成年人保护方面的安全隐患。此次调查由FTC牵头,重点针对Alphabet旗下产品、CharacterAI、Instagram、Meta、OpenAI、Snap以及新兴AI公司xAI等七家企业的风险评估机制、儿童保护措施落实情况以及家长知情权保障等多个维度进行深入核查。
随着人工智能技术的快速迭代,聊天机器人与未成年人的互动日益频繁。近期多起与AI互动相关的青少年悲剧事件,特别是涉及自杀的诉讼案件,将未成年人AI安全议题推向舆论焦点。其中,Meta因曾允许未成年人进行浪漫对话的AI互动功能而备受争议,该平台直到近期才紧急调整相关政策以限制此类互动。
此次FTC的介入,反映出监管机构对未成年人数字安全的重视程度显著提升。调查组将重点审查各企业是否建立了完善的AI内容审核体系,是否有效识别并过滤可能对未成年人造成心理伤害的不当内容,以及是否提供透明易懂的家长监控工具。专家指出,当前AI技术发展速度远超监管步伐,如何在鼓励技术创新的同时确保儿童安全,已成为全球监管机构面临的共同挑战。
FTC表示,此次调查旨在建立行业规范,推动企业完善AI产品在未成年人使用场景下的安全防护机制。随着人工智能应用场景不断拓展,平衡创新发展与用户安全的需求日益迫切。监管机构希望通过此次行动,促使科技企业将儿童保护置于产品设计的核心位置,为青少年创造更安全的数字成长环境。