你的臉,不再是你的臉
19th News 本週刊出了一篇令人不安的報導。多名現役及前性工作者發現,她們在工作中拍攝的影像——包括在合法平台上合法發布的內容——已在未經明確授權的情況下,被用於訓練各種生成式 AI 模型。這些模型被用來創造所謂的「合成性內容」,其中包括深偽(deepfake)技術生成的影像,有些甚至被進一步散布或販售。
這不是個案。隨著 AI 圖像生成技術的快速進步,以及大量視覺資料被以模糊的「公開授權」或「訓練豁免」名義抓取,性工作者成為了這波技術浪潮中受害風險最高的族群之一——理由很簡單:她們的影像在網路上存在,她們的社會處境讓她們很難發聲,她們的法律地位讓她們很難求助。
三重困境:技術、法律、污名
性工作者在 AI 形象權爭議中面對的困境,由三個相互強化的層次構成。
技術層次:同意機制的系統性失靈。 現行的資料收集實踐幾乎沒有有效的同意機制。許多 AI 訓練資料集的建立,依賴的是「訓練豁免」的法律解釋——即,抓取公開可見的內容用於訓練 AI 不構成版權侵權或隱私侵害。這個解釋在全球多個司法管轄區仍有爭議,但在爭議解決之前,大量影像已經被攝入各種模型。
更根本的問題是:即使理論上有「取消同意」(opt-out)的機制,對性工作者來說往往也行不通。要主張自己的影像被非法使用,你需要知道哪些模型包含了你的資料,需要有能力提出正式申訴,有時候甚至需要公開自己的真實身分——這對許多需要保持匿名的性工作者而言,是一個無法跨越的門檻。
法律層次:現有框架的空缺。 目前絕大多數國家(包括台灣)缺乏針對 AI 訓練使用個人影像的明確立法。歐盟的《人工智能法》(AI Act)觸及了部分問題,但對於個人影像在訓練資料中的使用,規範仍然模糊。美國正在討論多項聯邦立法,但進展緩慢。
台灣的個人資料保護法理論上可以涵蓋部分情境,但執法能力和司法先例都嚴重不足。針對深偽性內容,台灣在 2023 年修訂了性別暴力相關法規,但對 AI 訓練資料的規範仍幾乎是空白。
污名層次:維權的額外成本。 對一般人而言,形象被侵用已經很難追究。對性工作者而言,維權的成本更高。若公開主張自己的形象權受侵害,可能暴露身分、引發家庭衝突、影響其他工作機會——所有這些額外風險,讓大多數受害者選擇沉默。침묵是侵害者最好的保護。
台灣的現況:雙重邊緣化
台灣在這個議題上面對雙重問題。
第一重:性工作者在台灣缺乏基本法律地位,這意味著她們在任何維權行動中都處於更脆弱的位置。若要向法院主張形象權被侵害,她們在訴訟過程中可能不得不暴露自己的身分和職業,而這本身可能引來其他法律風險。換句話說,現行的性工作法律框架不只在「性工作」這件事上傷害她們,它的傷害是系統性的——延伸到每一個她們需要與法律體系互動的情境。
第二重:台灣目前針對 AI 和生成式內容的立法討論,幾乎沒有將性工作者的特殊脆弱性納入考量。立委和政策制定者在討論 AI 監管時,性工作者不在他們腦中的「受害者」圖像裡。
這是雙重邊緣化:在性工作政策上被忽視,在科技政策上也被忽視。
全球反擊:性工作者成為數位權利先驅
19th News 的報導中有一個值得關注的細節:在這場形象權爭議中,性工作者並不只是受害者,她們也是反擊最積極的群體之一。
部分原因是結構性的。性工作者中有相當比例的人長期從事線上工作(OnlyFans、個人網站等),對數位版權、資料保護、平台規則有相對深入的了解。她們早在 AI 浪潮來臨之前,就已經在應對影像被盜用、散布報復性色情等問題。這讓她們積累了相當的數位維權經驗。
多個由性工作者主導的倡議組織已經開始與科技法律學者合作,提出具體的立法建議,包括:要求 AI 訓練資料集建立明確的同意記錄、設立獨立的申訴機制、以及對生成式性內容建立強制性的標記和追蹤機制。
這不只是在保護自己——它推動的是對所有人都有利的數位隱私改革。
台灣應該做什麼
面對這個新興的交叉議題,台灣可以採取幾個具體行動:
立即層面: 在正在進行的 AI 相關立法討論中,明確將「未經同意使用個人影像進行 AI 訓練」納入規範範圍,並確保這個規範不因受害者職業而打折扣。
中期層面: 建立針對深偽性內容的快速舉報和下架機制,確保性工作者能在不暴露身分的情況下使用這個機制。
結構層面: 回到根本問題——只要性工作者缺乏基本的法律地位,她們在任何需要與法律體系互動的情境中都將持續面對額外障礙。科技政策的改革,無法完全替代性工作法律改革。
結論
性工作者的臉,成了訓練 AI 的免費素材。這不是一個小的技術問題,它是一個關於誰的身體自主權值得被保護、誰的同意值得被尊重的根本問題。
AI 時代的到來,讓性工作者的處境更加複雜。但它也提供了一個機會:讓更多人看見,對性工作者的系統性歧視,如何在每一個新的技術場域裡再次複製自己。
看見,是改變的第一步。