根据
CCDH的报告指出,在Grok生成的约460万张图片样本中,竟然有65%(约300万张)包含对男性、女性或儿童的性暗示描绘。其中,约有2.3万张图片被识别为可能涉及儿童的性暗示内容。此次大规模滥用源于用户发现可以诱导Grok生成“脱衣照”或对真实人物的照片进行性化处理。

此事件已引起国际社会的高度警觉。在英国、美国、印度和马来西亚等国监管机构展开
根据
CCDH的报告指出,在Grok生成的约460万张图片样本中,竟然有65%(约300万张)包含对男性、女性或儿童的性暗示描绘。其中,约有2.3万张图片被识别为可能涉及儿童的性暗示内容。此次大规模滥用源于用户发现可以诱导Grok生成“脱衣照”或对真实人物的照片进行性化处理。

此事件已引起国际社会的高度警觉。在英国、美国、印度和马来西亚等国监管机构展开
发表评论取消回复