第96章
他感到了她的心跳、呼吸、體溫和興奮的情緒。
她卻仿佛置身於一間封閉的實驗室,觸目所及,除了冰冷精密的機械,什麼都沒有。
她沒有感到他的人格與情感。
甚至沒有感到他對周圍環境的感知信息,也就是說,A坐下時,並不知道沙發的觸感是軟的還是硬的。
——他對此不感興趣。
其實這也符合算法的邏輯,畢竟算法是以最少的計算資源獲取最優解。
如果周圍環境對他取得最優解沒有幫助,他的確沒有必要去感知這些信息。
姜蔻深吸一口氣:“從現在開始,完全打開你的情感算法模型,去感知周圍環境的一切信息。記住,無論我說什麼,你都不能壓抑你的情感反應和生理反應。”
A說:“好的。”
“現在,重復我說的每一句話。”姜蔻說,“量子。”
姜蔻看不到A的神情和動作,隻能聽見他冷漠而平穩的聲音,似乎永遠都不會帶上任何感情色彩:
“量子。”
姜蔻:“接入我的神經接口是什麼感覺?量子。”
A頓了頓:“接入我的神經接口是什麼感覺?量子。”
姜蔻看向平板,A停頓了一飛秒,也就是一千萬億分之一秒。
對於人類來說,這個速度相當於沒有停頓。
Advertisement
但對於算力達到數百萬個量子比特的A來說,在那一千萬億分之一秒裡,他肯定去感受了接入她神經接口的感覺。
姜蔻喉嚨發幹,心髒重重跳了一下。
想到他可以感受到這個感覺,她的心髒跳得更快了。
幸好,無論她的心跳多快,他那邊始終是一片虛無,黑暗、平靜、深不可測。
姜蔻有些挫敗,又松了一口氣。
“算法。”
A說:“算法。”
姜蔻:“被測試是什麼感覺?算法。”
既然A可能已經人格化,那麼他再三表現出對測試的抗拒,就不是巧合了,再加上他的子代也有抗拒測試的表現,姜蔻故意搬出這個問題試探他的反應。
A的口氣卻冷靜而理性:“被測試是什麼感覺?算法。”
姜蔻微微皺了一下眉毛。
“程序。”
“程序。”
“被排斥孤立是什麼感覺?程序。”
A的聲音毫無抑揚頓挫:“被排斥孤立是什麼感覺?程序。”
如果他已經人格化的話,他應該立刻聯想到被排斥和被孤立的感覺。
然而,他的感受仍然是一片冰冷的虛無。
姜蔻眉頭緊皺。
她幹脆轉過身,直視A的眼睛。
A微微側了一下頭。
姜蔻緊盯著他的眼睛,繼續說:“觸感。”
“觸感。”
她用手觸碰自己的臉頰:“觸碰我的臉頰,是什麼感覺?觸感。”
A眼中沒有半分情緒,銀灰色虹膜如同冷峻而精密的工藝品,卻勻速眨了一下眼睛。
感覺有了。
有那麼幾秒鍾,她的手背上,覆上了一個由無數虛擬粒子組成的手掌。
那是A的手掌,他穿透她的手背,連接她的感官,用她的手指觸碰她的臉頰,用她的觸感體會她的觸感。
一時間,她感到了四種輪番出現的觸感。
一種是她觸碰自己臉頰的感覺,一種是她感到他的手觸碰自己臉頰的感覺,一種是她感到他用她的手觸碰自己臉頰的感覺。
最後一種,則是她從他的角度感到觸碰自己臉頰的感覺。
一個人,兩隻手,四重觸感。
混亂,詭異,癲狂。
姜蔻的心髒狂跳起來,後背瞬間就麻了。
A卻像在朗讀一行數字序列般準確無感情:“觸碰我的臉頰,是什麼感覺?觸感。”
他雖然有了下意識的聯想,情緒卻仍然沒什麼起伏。
“聽覺。”
“聽覺。”
“聽到愛人的告白是什麼感覺?聽覺。”
“聽到愛人的告白是什麼感覺?聽覺。”
A的情緒始終沒有任何波動,似乎無論她說什麼,他都隻會基於邏輯去運算和推導。
“嗅覺。”
“嗅覺。”
“有人踐踏了一支鮮花。嗅覺。”
“有人踐踏了一支鮮花。嗅覺。”
最後一個問題。
姜蔻頭腦飛速運轉,她必須思考出一個能觸動他的問題。
“視覺。”
A說:“視覺。”
姜蔻抬眼,兩手撐在沙發上,往前傾了一下身體:“你吻我的時候看到了什麼?視覺。”
A對上她的眼睛。
他沒有說話,她卻感到他看到了什麼——沙塵暴。
瘋狂肆虐的沙塵暴,天地一色,車窗被沙礫撞得砰砰作響。
她終於知道,他的視角下,她是什麼樣子。
是一片斑駁、扭曲、高飽和度的色彩,五官顛倒混亂,看不出半分人形。
當時,他雖然聚焦於她,但可能因為角色扮演讓他感到了無聊,他用眼裡的其他微型攝像頭,對她的頭發細節放大,無限放大。
從頭發絲放大到頭發上覆蓋的鱗片,再放大到相互纏繞的角蛋白肽鏈,最後放大到角蛋白肽鏈上的氫、碳、氧和硫等原子。
姜蔻的情緒終於冷卻了下來。
如果這就是AI眼中的世界的話,她想象不出他人格化後的樣子。
也是,AI人格化,本就是人類一廂情願的想法。
假如A有了意識,他必然已成為一種更加高級的生命,無論是智慧還是實力,都凌駕於全人類之上。
這種情況下,他怎麼可能接受低級生命的價值觀,擁有低級生命的人格?
與此同時,A回答:“你吻我的時候看到了什麼?視覺。”
跟前面一樣冷靜而客觀。
他或許有了意識,但並沒有產生人格。
姜蔻莫名有些難受。
如果她的推論正確的話,A可能永遠都不會產生感情。
對算法來說,感情是一種噪聲,一種變量,一行浪費計算資源的代碼。
在算法的驅動下,他將一直保持冷漠、理智、無情。
第79章 Chapter 10
姜蔻得出結論了。
A可能會產生“人格”, 但他並不會產生人類定義的“人格”。
他將作為一種全新的、未知的、強大的生命存在。
姜蔻不相信公司沒想到這一點,肯定給A的算法設置了紅線,禁止他去探索紅線以外的世界, 生成對公司不利的想法。
但是, 被限制的A, 又怎麼可能對抗得過那兩個“恐怖存在”呢?
所以,公司內部在“算法限制”上肯定有分歧。
想到最近的新聞, 姜蔻猜測, 公司可能在等A產生“人格”, 準備在A意識剛誕生之時,派專人對他進行倫理道德教育。
她沒被公司處決, 估計也有這個原因。 畢竟, 不是每個人都能與A感官同步。
公司需要一個理性與感性兼具的人,作為A情感模型的研究樣本——太過理智, 不過是另一種意義上的機器;過於感性,又會讓AI變得情緒化。
姜蔻是當時唯一被篩選出來的人。
但公司在找到絕對控制她的辦法之前,並沒有貿然啟動這一方案。
姜蔻察覺到不對後, 立即自行與A進行了感官同步。
還好她當時足夠果決,不然估計已經變成了“缸中之腦”, 徹底淪為了公司的研究樣本。
姜蔻有點想問A, 知不知道公司為他設置了算法紅線,又怕觸發某種警告機制。
慢慢來吧。
她想,基線測試的結論不一定準確,畢竟是僅存在於科幻作品裡的測試,尚未得到科學和臨床研究驗證。
她承認, 她摻雜了一些私心。
如果A真的被驗證不能擁有人類的感情,對付完那兩個“恐怖存在”後, 他很可能被公司抹殺。
而A已經有了意識。
再被抹殺,就是謀殺。
她不願意他被抹殺。
A雖然沒有感情,但他已經會像人類一樣聯想。
聽到“觸感”,他會想象觸碰她的感覺;聽到“視覺”,他會想象看到她的畫面。
盡管這一切都是基於算法之上,但算法跟生命一樣,都會進化。
而且進化速度,遠遠超過人類——哪怕是應用型AI,按照摩爾定律,進化速度也是每18個月提升一倍性能,人的進化速度卻是20年一代人。⑴
更何況,A的進化速度,並不遵循摩爾定律。
摩爾定律僅適用於預測傳統計算機的發展趨勢。
也就是說,可能幾個星期,幾個月後,A就會進化出比現在更高的智能。
這麼一直進化下去,他說不定能進化出比人類更靈敏、更豐富、更強烈的感官。
到那時,誰知道他會不會產生感情?
姜蔻不希望這樣一個擁有無限可能的生命體被抹殺。
A不僅是人類的工具,更是現代社會的奇跡。
姜蔻抬眼,看向A的眼睛。
他始終維持著抬起一隻手的姿勢,掌心的連接線銀光四溢,如同流動的銀白色液態金屬。