在人工智慧(AI)高速發展的浪潮中,全球知名的那些大科技公司不僅被視為技術革新的推手,更被賦予引領未來的社會責任。但這些企業,是否也同時扮演著「負責任的參與者」?
當 ESG成為衡量企業價值的新指標,AI與ESG之間的爭議慢慢浮現,比較常見的問題是電力問題,不過它除了電力與環境(E)的爭議外,背後還同步隱藏社會(S)與G(治理)的問題。
近年矽谷獨角獸 Scale AI 成為備受矚目的焦點,不只是因為它為 OpenAI、Meta、微軟等巨頭提供模型訓練所需的核心數據,更因為它獨特且難以被取代的外包架構與用工模式,揭示了 AI 世代下被忽略的社會責任斷層。本文將以 Scale AI 為案例,剖析 AI 發展背後的 ESG 爭議與風險結構。
Meta巨資入股Scale AI,共同研發「AI」
2025年6月13日,Meta 宣布將以 近150億美元資金換取 Scale AI 約49%的股份,同時將主導開發所謂的「超級智能實驗室」。這筆交易不僅是科技史上罕見的巨額入股案,更象徵 Meta 從語言模型落後者,轉向「資源整合」策略的重大轉折。
交易關鍵在於,Scale AI被譽為是AI產業界的「標註之王」,Scale AI 成立於 2016 年,以其 數據標註平台 Remotasks 為基礎,快速在生成式 AI 熱潮中竄紅。其業務核心,是透過全球外包網路收集大量人工標註資料,提供給如 GPT、LLaMA、Gemini、特斯拉、英偉達...等模型作為訓練資料,如果把AI產業比喻成製造業,Scale AI可是AI界幾乎壟斷的某個原料提供商,因此這場入股案又使得這家公司受到高度關注。
但被眾人高度關注的同時,很多年前被討論的AI社會責任與治理層面的問題有被再一次的放到檯面上檢視,是的,這家公司很多年前就已經被爆出相關爭議,而入股案又使得此議題重新被民眾拿來關注。
AI的進步,誰來買單?Scale AI 用工模式下的社會責任風暴
當我們讚嘆 AI 模型的進化速度,是否也該停下來思考:這一切的「智慧」是如何來的?
其實生成式 AI 的成功背後,需要一整座看不見的「人力礦場」——這正是 Scale AI 商業模式發展的核心。
「人工智慧」建立於「工人智慧」上
資料顯示,Scale AI 的主力平台 Remotasks,連結著全球超過 24 萬名標註員,這些人分布於菲律賓、肯亞、奈及利亞、印度等國。他們的工作,是每天對圖片、影片、聲音甚至 AI 生成的文字資料進行人工標註,例如標出照片中的車子、辨識情緒語調,或是審查 AI 生成的敏感內容。
這些工作看似簡單卻極為關鍵的事情,他們是構成大型語言模型訓練不可或缺的工作,例如人類可以生成很多富有創意的詩句內容,換個主題都可以依據情況創作新的詩句,但在人類成長的期間,需要有人教導識字,而後才能利用所知的文字,去排列組合創作詩句。
所以別看這些工作只是告訴AI這是車子、這是機車、這是電線桿這麼簡單的東西,他們可是AI當中最重要的工作,而且Scale AI會一家獨大很大一部分因為是它承接了所有AI公司都不想做的工作,最基礎最需要人力與時間卻又沒什麼成本的工作。
但也因此,這些標註工的勞動條件與待遇,遠遠不如大科技公司那麼光鮮亮麗,甚至引發了不少爭議及訴訟。
剝削?還是全球外包最佳實踐?
根據《The Verge》與《華盛頓郵報》等媒體的調查報導,美國境內的數據標註員每小時可領取 10 至 25 美元的薪資;然而,在肯亞等外包地區,標註工人卻僅獲得每小時 1 至 3 美元,甚至更低的報酬。
以 Remotasks 為例,平台會依據任務「完成時間」設定嚴格的時限,一旦超時,工人不僅報酬遭扣減,甚至還可能無酬結案。他們把這標註工作做成一場高壓的競賽,必須同時拚速度與精準度。但這樣的制度設計造成明顯的不對等結構,從多起訴訟案例揭露中顯示,有些工人花費大量時間與心力,在這制度的運作下,最後卻只獲得不足以在台灣買一個便當的酬勞。
更嚴重的是,有工人僅因質疑工資延遲問題,便遭平台封鎖、失去所有接案權限。在缺乏正式勞動契約的情況下,這種解雇行為幾乎無法追責。這種利用外包架構來規避雇主責任與勞動保障的做法,在全球也並不少見。美國也曾將大量勞力密集產業外包至亞洲,帶動當地經濟發展,但當時至少有工廠、公司作為管理者,提供申訴機制與法律依據。
如今,數位外包產業蓬勃發展,每個人都能透過平台「自由接案」,卻無任何勞動保障。新興行業尚未建立健全制度與倫理規範,也缺乏政府監管與法律約束,遠不如傳統製造業來得透明與可控。大家覺得很熟悉嗎? 沒錯!大家常常使用的叫餐平台Uber eat,其實也有類似的爭議,當每一位接案者都像是「勞工」,但卻又不算是實質的勞工,不過卻實實在在的在為公司服務,這種大環境下相關的案例不會是一起兩起而是更多,我們是否也需要重新檢視這套外包機制背後的倫理風險與責任邊界?
不當內容審查與心理的創傷
除了低薪以及扣款等問題外,標註內容本身也充滿問題。許多任務涉及 暴力、血腥、性虐、仇恨言論等 AI 審查素材,長期下來對工人的心理健康造成重大傷害。
有標註員回憶,每天面對數百筆血腥與自殘圖片「像是活在地獄裡」。
即使內容較「正常」,重複單調的點擊與極度競爭的績效制度,也容易造成「數位倦怠症」與心理疲勞。
遺憾的是,目前大多平台並未提供心理諮商、健康保護或工時上限制度,這些工人往往被視為「可替換的機器」,而非真正的員工,就像原物料一樣。
效率的背後是倫理的稀釋
Scale AI 的全球架構,讓它能在「誰開價最低」的市場邏輯中快速招募與淘汰人力。有外包公司透露,Scale 旗下子公司會「在全球範圍內競價任務」,導致標註價格節節下降,形成一種「工資的逐底競爭」。
從 ESG 的觀點來看,這正是典型的「社會責任缺口」:
- 勞動保障不足
- 薪資公平性問題
- 職業安全與心理健康未被重視
若這是 AI 公司普遍採行的模式,勢必需要社會重新反思技術進步背後的代價。Scale AI 是當代 AI 成就的催化器,但同時也成為全球勞權危機的縮影。
當訓練 AI 模型的基礎建立在無數低薪、未受保護的工人身上,ESG 中的「S」便不應只是附註,而是關係企業聲譽與社會信任的核心。然而諷刺的是,這些問題往往不會出現在大型科技企業的 ESG 報告當中,雖然不太會刻意隱藏或掩蓋,但會普遍呈現偏向於不提醒人們有這件事情發生,並且淡化其影響性。
誰來監管AI?從Scale AI看公司治理與風險控管的斷層
講到這邊大家可能已經發現了,這看起來是ESG當中「S」(社會)的問題,但卻跟「G」(治理)有很大的關聯性,對掌握龐大數據與模型訓練能力的 AI 公司而言,治理失衡將直接衝擊倫理風險與社會信任。
以 Scale AI 為例,由年輕創辦人汪滔創立,短短數年內便成為 OpenAI、Meta 等巨頭的資料供應商,也將主導 Meta 的超級智能實驗室。然而,即便 Meta 持股高達 49%,公司實際控制權仍掌握在創辦人手中,外界質疑這種權力高度集中,是否缺乏制衡與監督。
事實上,Scale AI 近年頻傳爭議,從薪資欠付、非法解雇,到對標註員的監控與無預警扣薪,反映出其內部法務與道德治理的明顯缺口。剛成立的小公司可能不會受到重視,但當平台快速擴張,卻沒有同步強化治理制度,就容易讓責任與風險同步失控。
更值得關注的是,其所依賴的承包型平台 Remotasks,實際上具備高度管理行為,卻模糊工人與合作方的法律關係,使責任歸屬變得曖昧難追。從 ESG 視角來看,這正是典型的治理斷層:問責困難、聲譽風險高漲,卻無人能真正監管。
當科技公司正訓練出超級AI時,其實最需要被先升級的,或許正是它們的治理。
結語
我們常在科幻作品中擔心 AI 失控、沒有倫理的破會人類社會,但卻很少人會擔心製造AI或教導AI的企業,本身是否具備一定的社會責任與倫理。
如果 Scale AI 是當代 AI 模型訓練的「原料供應商」,那麼這些原料所承載的,不是公平與尊重,而是低薪、壓榨與治理空窗。我們又怎能期待,一個以此制度為基礎訓練出來的模型,會具備真正的倫理判斷?
AI 如同一個學習中的孩子,企業就像父母,其價值觀與行為模式將深深影響 AI 的學習方向與反應邏輯。若企業本身對人性冷漠,對社會責任漠視,那麼再先進的技術,恐怕也只是加速無情的系統化擴張。
對 AI 公司而言,挑戰不只是「模型能否更聰明」,而是「企業是否夠成熟、有擔當」。假如最終這些AI產品無法被社會信任、無法在人類生活中良善的落地,就無法稱之為真正的進步。
Scale AI 的發展歷程是這個世代 AI 擴張邏輯的縮影。它提醒我們:科技本身不具道德,方向由人決定。若企業一邊追求創新,卻一邊忽略最基本的勞權與治理責任,那麼 AI 所帶來的未來,將可能遠離我們所期望的人性。
在這個時代,AI 的發展不能再用「先做再說」的草率心態來處理倫理與責任問題。當我們談 ESG,不只是討論財報風險,而是在回應一個關鍵問題:「我們希望使用科技,來服務什麼樣的世界?」
番外篇:教育互動小遊戲