
伊隆馬斯克的 Grok AI 應用戶要求製作大量露骨圖片甚至是包含兒童色情圖片,在 X 上用戶只需要發圖艾特 Grok 即可要求處理圖像,但 Grok 安全措施顯然沒到位。目前法國政府已經指控 xAI 和 X 可能違反了歐盟數位服務法,接到用戶回饋後 xAI 也開始修復所謂的安全措施漏洞。
本週 X/Twitter 上最火的貼文可能就是關於 Grok AI 產生大量露骨圖片的內容,Grok AI 活躍在 X 平台並會按照用戶要求執行操作,於是不少用戶要求 Grok AI 把某人照片中的衣服剝離。
由於 X 帳戶回复內容是公開可見的,因此用戶只需要轉到 Grok AI 主頁查看回复或者是圖片就可以看到人要求 Grok AI 生成的圖片,不少用戶看到圖片後直呼辣眼睛。
這些圖片裡不乏存在伊隆馬斯克裸露照片以及大量其他人的裸露照片,甚至還有未成年人的裸露照片,在大多數國家或地區,涉及未成年人的色情內容都是嚴重的犯罪。
負責產生圖片的是 Grok AI 推出的 Grok Imagine 圖像生成模型,該模型本身就缺乏針對性和深度偽造技術的安全保障,在 2025 年 8 月推出時用戶就可以使用該模型生成 NSFW 圖像 (意為不適合在工作場所查看的內容)。
然而 xAI 的反應速度似乎並不快,在收到大量用戶回饋後該公司才發文表示正在考慮加強安全措施:
個別情況下用戶被要求提供並收到描述未成年人衣著暴露的 AI 圖片,我們團隊已經發現安全措施存在漏洞並正在緊急修復。另外我們團隊正在考慮進一步加強我們的安全措施。 (註:原文如此)
在 xAI 的可接受使用政策裡明確禁止用戶以色情方式描繪人物肖像,但這不一定包含僅帶有性暗示的內容,當然政策本身確實禁止對兒童進行性化或剝削,只不過 xAI 的安全政策顯然沒有跟上。
目前法國政府已經開始指控 Grok AI 在未經用戶同意的情況下產生並傳播明顯違法的色情內容,法國政府稱 xAI 和 X/Twitter 可能違反了歐盟的數位服務法,這項法規要求平台降低非法內容傳播的風險。