有時候我就在心里尋思,為什么我們一碰到技術作惡的新聞,第一反應不是生氣,而是有一種隱隱的、沒法描述的疲憊。不是不在意,而是那種"又來了"的感覺——腦海里好像有什么東西輕輕嘆口氣,然后接著翻篇。
央視這回曝光的AI造黃產業鏈,【9.9元】能買到教程,一張圖片能生成視頻,境外軟件繞過監管,用英文關鍵詞通過審核。把細節讀一遍,有點叫人后背發寒。
不是因為這事多新奇,恰恰是因為它不新奇——這種"技術被用來干壞事,而且門檻還越來越低"的戲碼,我們都見太多回了。
技術改變的是作惡成本
我之前看過一本叫《技術倫理學》的書,書里有個觀點一直留在我腦子里,大概意思是,技術不會自己生出善,也不會自己生出惡,但技術會改變干壞事的成本結構。
之前我覺得這話有點繞。看完這次報道后,我突然覺得它碰到了一個很具體的東西。
不是AI讓壞人更壞,而是AI讓做壞事變得不需要特別的意志。
【9.9元】,不需要技術背景,不需要策劃,不需要膽量,甚至不需要特意去想這件事,只需要打開一個軟件,輸入幾個字,門就打開了。以前那道"我能不能做到"的坎,現在差不多沒了。
這才是讓我偷偷不安的地方——不是技術本身,而是它悄悄重新定義了一件事的難度。
那個"沒經過我"的感覺
我自己也有過類似的感覺,雖然和這件事不在一個級別。有段時間我用AI生成內容,越用越順手,順手到有一次發現自己根本沒思考就發了一段話——那段話沒錯,但也不是我真正想說的,在我意識到之前,動作就已經做完了。
那一刻我沒覺得那是什么大問題,可后來想想,那個"沒經過我"的感覺,其實是個信號。
當技術降低門檻的時候,它降低的不只是做某件事的門檻,同時也在降低"要不要做這件事"的那一步思考。很多原本得有點猶豫的動作,變成了順手的操作。
那個猶豫,哪怕只有3秒,其實是一個人和自己價值判斷之間的距離。技術有時候會把這個距離壓縮到幾乎感覺不到。
技術無罪,但設計有選擇
所以"技術本身無罪"這話我基本認可,但我覺得它是一句剛說出口就得被追問一下的話。技術無罪,可技術的設計是有選擇的——誰來負責那道審核,審核的邏輯是什么,什么樣的漏洞值得修,這些都是具體的人在做的具體決策。
把"無罪"推給技術,等于把這些問題推進了一個沒有主語的句子里。
倫理不是技術之外的多余東西,不是開發完了再貼上的標簽,它本來就應該是設計的一部分,是每一個功能決策背后的那個問題——這個我們能做出來,但我們真的應該這么做嗎?
現在這個問題好像越來越少被認真問了。不是沒人問,而是問的速度趕不上做的速度。
規則管不住的灰色地帶
監管確實在跟進。"清朗"行動、AI管理辦法,這些我看到了,也覺得挺有用。但我自己有個想法還沒理清楚:規則能管得住的,通常是已經形成固定形態的問題。
而技術每次進步,都會產生一些還沒被定義過的灰色地帶。在那個空窗期,攔住問題的,會不會不只是監管,還有每個使用技術的人那一瞬間的遲疑?
我不曉得這個猶豫算不算用。但我覺得,在技術把它壓縮掉之前,先發現它還在,或許不是什么小事。
![]()
參考來源:
[1] 朱葆偉. 關于技術倫理學的幾個問題[J]. 東北大學學報(社會科學版), 2008, 10(4): 283-288.
[2] 中央廣播電視總臺財經調查欄目. 央視起底AI"造黃"產業鏈:9.9元教程批量生成擦邊視頻[N]. 中國能源新聞網, 2026-04-13.
聲明:本文內容96%左右為人工手寫原創,少部分借助AI輔助。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.