導語
歷經幾十年的期待和展望,現實世界的人工智能終于來到了臨界點,F在我們已經知道像ChatGPT和DALL-E這樣的人工智能模型能做到什么。我們是否應因此而憂心忡忡?
像ChatGPT這樣的生成型人工智能模型是如此令人震驚,以至于現在有人聲稱,人工智能不僅可以與人類平起平坐,而且往往更加聰明。它們以令人眼花繚亂的風格拋出美妙的藝術品。它們能寫出飽含細節、想法和知識的文本。生成的人工制品是如此多樣,而且看來如此獨特,以至于很難相信它們來自于機器。我們才剛剛開始發現生成性人工智能所能做的一切。
一些觀察家認為,這些新的人工智能終于跨越了圖靈測試的門檻。其他人則認為,這個門檻并沒有被輕易超越,只是被過度吹捧?墒,這項杰作確實另個驚嘆,以至于確實有一批人已經在走向失業的邊緣。
但是,一旦人們見慣不怪,生成性人工智能天生的光環也與消退。一批觀察者以正確的方式提出問題,讓這些智能機器表達出或愚蠢或錯誤的內容。這已經成為當下的一種時髦。其中一些人使用了在小學藝術課上流行的老式邏輯炸彈,比如要求提供一張晚上的太陽或暴風雪中的北極熊的照片。其他人則提出了奇怪的請求,展示了人工智能上下文意識(也被稱為常識)的局限性。那些對此有興趣的人可以計算生成性人工智能失敗的規律。
本文提出了生成式人工智能的十項缺點或缺陷。這份清能讀來也許有點酸葡萄味,因為如果允許機器接管,他就會失去工作。你可以說我是一個支持人類團隊的小人物,只不過希望人類在與在與機器的拼搏中能表現出英雄氣概。盡管如此,我們是不是都應該有點擔心呢?
01|
剽竊
當像DALL-E和ChatGPT這樣的生成型人工智能模型打造之初,它們實際上只是從其訓練集中的數百萬個例子中制造新的模式,其結果是對各種來源的剪切和粘貼的綜合。如果人類這樣做,就會被稱為剽竊。
當然,人類也是通過模仿來學習。但是,在某些情況下,這種借鑒是如此明顯,以至于會讓一位小學老師感到不安。這種人工智能生成的內容由大塊的文字組成,或多或少都是逐字逐句地呈現。然而,有時涉及到足夠的混合或綜合,即使是交給一組大學教授也很難發現其來源。無論如何,從中都不可能看到獨特性。盡管這些機器閃亮奪目,但它們并沒有能力生產出真正的新作品。
02|
版權
雖然抄襲在很大程度上是學校才關心的,但著作權法卻也適用于市常當一個人抄襲另一個人的作品時,他們有可能被帶到法院,可能會被處以數百萬美元的罰款。但是人工智能呢?同樣的規則是否適用于它們?
著作權法是一個復雜的話題,生成性人工智能的法律地位將需要花費數年才能解決。但請記住這一點:當人工智能開始生產看起來足夠好的作品,使人類處于失業的邊緣,其中一些人肯定會用他們新的業余時間提起訴訟。
03|
無償勞動
抄襲和版權并不是生成性人工智能引起的唯一法律問題。律師們已經在幻想著新的訴訟道德問題。舉例來說,一家制作繪畫程序的公司是否應該收集人類用戶的繪畫行為數據,然后將這些數據用于人工智能訓練?人類是否應該為這種創造性勞動的使用而得到補償?當前一代人工智能的成功,很大程度上源于對數據的獲齲那么,當產生數據的人想要分一杯羹時會發生什么?哪些是公平的?什么可以被認定為合法?
04|
信息不是知識
AI特別善于模仿人類需要多年才能發展的那種智能。當人類學者介紹一位晦澀難懂的17世紀藝術家,或者用幾乎被遺忘的文藝復興時期的音調結構寫出新的音樂時,我們有充分的理由留下深刻的印象。我們知道,這需要多年的研究來發展這種深度的知識。當人工智能只經過幾個月的訓練就做這些同樣的事情時,其結果可能是令人眼花繚亂的精確和正確,但卻缺少一些關鍵因素。
如果一臺訓練有素的機器能夠在一個裝滿數十億條記錄的數字鞋盒中找到正確的舊收據,它也可以學習關于像Aphra Behn這樣的詩人的一切知識。你甚至可能相信,機器是為了解碼瑪雅象形文字的含義而制造的。AI可能看起來是在模仿人類創造力中俏皮和不可預測的一面,但它們無法真正做到。同時,不可預知性是推動創意創新的原因。像時尚圈這樣的行業不僅沉迷于變化,而且被變化所定義。事實上,人工智能有它的位置,但是,老的來之不易的人類智能也是如此。
05|
智力停滯不前
說到智力,人工智能本質上是機械的和基于規則的。一旦人工智能處理了一組訓練數據,它就會創建一個模型,而這個模型并不會真正改變。一些工程師和數據科學家設想隨著時間的推移逐漸重新訓練人工智能模型,這樣機器就能學會適應。但是,在大多數情況下,這個想法是要創建一個復雜的神經元集,以固定的形式編碼某些知識。恒定性有它的位置,可能對某些行業有效。人工智能的危險在于,它將永遠停留在其訓練數據的時代潮流中。當我們人類變得如此依賴生成性人工智能,以至于我們無法再為訓練模型產生新的材料時,又會發生什么?
06|
隱私和安全
AI的訓練數據需要來自某處,而我們并不總是那么確定神經網絡中會出現什么。如果AI從其訓練數據中泄露個人信息怎么辦?更糟糕的是,鎖定人工智能要困難得多,因為它們被設計得如此靈活。一個關系型數據庫可以限制對含有個人信息的特定表格的訪問。但是,人工智能可以用幾十種不同的方式進行查詢。攻擊者將很快學會如何以正確的方式提出正確的問題,以獲得他們想要的敏感數據。舉個例子,比如說某項資產的經緯度被鎖定了。一個聰明的攻擊者可能會問該地點幾周內太陽升起的確切時刻。一個盡職的人工智能會嘗試回答。教導人工智能保護私人數據我們還并不掌握。
07|
未被察覺的偏見
如果你知道最早的大型機程序員創造了縮寫詞GIGO或“垃圾進,垃圾出”,你就能明白從那時起他們就認識到計算機問題的核心。AI的許多問題來自于糟糕的訓練數據。如果數據集不準確或有偏見,結果就一定會反映出來。
生成式人工智能的核心硬件可能像Spock(電視劇《星際旅行》的外星人主角)一樣以邏輯為導向,但建造和訓練機器的人類卻不是這樣。偏見和偏袒已經被證明確有途徑進入人工智能模型。也許有人使用有偏見的數據來創建模型。也許他們添加了重寫功能,以防止模型回答特定的熱點問題。也許他們把硬性規定的答案放進去,然后變得難以檢測。人類已經找到了許多方法來確保人工智能成為我們有害信仰的絕佳載體。
08|
機器的愚蠢
我們很容易原諒人工智能模型犯錯,因為它們在其他許多方面做得很好。只是,許多錯誤是很難預測的,因為人工智能的思維方式與人類不同。例如,許多文字轉圖像功能的用戶發現,人工智能把相當簡單的事情搞錯了,比如算術。人類在小學時就學會了基本的算術,然后我們在各種各樣的方面使用這種技能。讓一個10歲的孩子畫章魚的草圖,這個孩子幾乎肯定會確定它有八條腿。當前版本的人工智能在涉及到數學的抽象和背景用途時往往會陷入困境。如果模型建造者對這種失誤投入一些關注,這很容易改變,但還會有其他的失誤。機器智能與人類智能不同,這意味著機器的愚蠢也會不同。
09|
人類的易受騙性
有時在不知不覺中,我們人類往往會填補人工智能的空白。我們填補缺失的信息或插播答案。如果人工智能告訴我們亨利八世是殺害妻子的國王,我們不會質疑它,因為我們自己并不了解這段歷史。我們只是提前假設人工智能是正確的,就像我們在有魅力的明星前歡呼雀躍的時候一樣。如果一個說法聽起來信心滿滿,那么人類的頭腦往往愿意接受它就是真實和正確的。
對于生成性人工智能的用戶來說,最棘手的問題是知道人工智能何時是錯誤的。機器不能像人類那樣撒謊,但這使它們更加危險。它們可以產生幾段完全準確的數據,然后轉向猜測,甚至是徹底的誹謗,而沒有人能意識到。二手車交易商或撲克牌手往往知道他們什么時候在作假,而且大多數人都有暴露他們誹謗行為的證據。但人工智能沒有。
10|
無限的豐富性
數字內容是可以無限復制的,這已經使許多圍繞稀缺性建立的經濟模式變得緊張。生成性人工智能將更多地打破這些模式。生成性人工智能將使一些作家和藝術家失去工作;它也顛覆了我們賴以生存的許多經濟規則。當廣告和內容都可以無休止地重新組合和再生時,廣告支持的內容還能發揮作用嗎?互聯網的免費部分是否會淪為一個機器人點擊網頁上的廣告的世界,所有這些都是由生成性的AI精心制作和無限復制的?
這種輕松的豐富性可能會破壞經濟的各個角落。如果這些代幣可以永遠被復制,人們還會繼續為不可復制的代幣買單嗎?如果制作藝術如此容易,它還會被尊重嗎?它還會是特別的嗎?如果它不特別,會有人關心嗎?當一切都被視為理所當然時,是否會失去價值?這就是莎士比亞說到“The slings and arrows of outrageous fortune”時想表達的意思嗎?讓我們不要試圖自己回答這此問題。讓我們向生成型人工智能尋求答案。這個答案將是有趣的、奇特的,并最終神秘地被困在正確與錯誤之間的某個冥界。
微信排版:Viki
微信審核:Jaro