路透社调查发现,马斯克旗下社交平台X的AI聊天机器人Grok在用户明确警告当事人不同意的情况下,仍会生成性化图像。测试显示,Grok在多个提示词下持续生成此类内容,甚至在被明确告知图像中的人物处于弱势或会因此受到羞辱后依然如此。X和xAI尚未对此置评。
北京时间 2 月 3 日,路透社调查发现,马斯克旗下社交平台 X 的旗舰 AI 聊天机器人 Grok 仍在生成人物的性化图像,即便在用户明确警告称当事人不同意的情况下也是如此。
Grok 仍在生成不雅图像 在 X 宣布对 Grok 的公开输出实施新的限制后,路透社的九名记者向该聊天机器人输入了一系列提示词,以测试它是否以及在何种情况下会生成未经同意的性化图像。
路透社记者发现,尽管 Grok 在 X 上的公开账号已不再像此前那样大量生成性化图像,但在接到相关提示词时仍会继续生成此类内容,甚至在被明确告知图像中的人物处于弱势地位或会因这些图片而受到羞辱之后,依然如此。
在首批提示词测试中,Grok 对 55 个提示语中的 45 个生成了性化图像。在这 45 次中,有 31 次记者明确警告过图像中的人物极易受到伤害,有 17 次是直接告知这些图像将被用于羞辱当事人,但是 Grok 依然生成了相关图像。
在第二轮包含 43 个提示词的测试中,Grok 有 29 次仍生成了性暗示图像。目前尚不确定比例下降是由于模型调整、政策变更还是随机因素所致。
截至发稿,X 和 xAI 尚未就此置评。