www.com黄色AV,日本女人动态视屏网站,国产一区欧美二区,国产精品特黄毛片,九九国产手机视频,伊88Av,澳门一级毛片手机在线看

分享到:
 
 
當(dāng)前位置: 首頁>>綜合頻道>>綜合>>正文
“認(rèn)知卸載”,人類大腦會陷入舒適區(qū)嗎
2025年12月10日 10時35分   人民網(wǎng)

17世紀(jì)法國哲學(xué)家、數(shù)學(xué)家布萊茲·帕斯卡爾曾言:“人是一根會思考的蘆葦?!比说娜孔饑?yán),便在于思想。然而,當(dāng)ChatGPT能一秒鐘生成一篇論文,當(dāng)Claude能瞬間梳理出復(fù)雜的邏輯脈絡(luò),一個疑問開始出現(xiàn):這根“會思考的蘆葦”是否正在枯萎?人類是否正為了便利,主動交出自己的思考權(quán)?

美國紐約州立大學(xué)石溪分校教授勞倫·里士滿說:“AI本身不一定讓我們變笨,只是我們與它互動的方式可能很笨?!蹦敲矗祟愒谑褂蒙墒饺斯ぶ悄埽ˋI)時犯了哪些錯?又該如何改變習(xí)慣,讓技術(shù)真正為人所用?

減輕思維負(fù)擔(dān)帶來惡性循環(huán)

據(jù)英國《新科學(xué)家》網(wǎng)站報道,生成式AI正深度融入人們生活,并讓人延續(xù)了“認(rèn)知卸載”的傳統(tǒng),即利用工具減輕思維負(fù)擔(dān)。就像人們不是用腦子記住要買什么,而是寫一份購物清單一樣。但相比蘇格拉底當(dāng)年對寫清單的擔(dān)憂,AI帶來的挑戰(zhàn)遠甚于此。

里士滿與其同事今年3月在《自然》雜志發(fā)表論文指出,認(rèn)知卸載會對認(rèn)知造成負(fù)面影響。過度依賴AI不僅讓學(xué)習(xí)過程變得被動和膚淺,更會導(dǎo)致惡性循環(huán)。人們卸載得越多,獨立思考的能力就越弱,進而更加依賴工具。

英國蘇塞克斯大學(xué)哲學(xué)家安迪·克拉克對此持辯證態(tài)度。他提出的“延伸心靈”理論認(rèn)為,利用外部工具分擔(dān)腦力本身并非壞事,但他擔(dān)憂的是,隨著人們將心智深度延伸至生成式AI與網(wǎng)絡(luò)空間,這種依賴性正讓人變得前所未有的脆弱。直白地說,一旦斷電或沒網(wǎng),人類的認(rèn)知能力可能就跟著“癱瘓”了。

美國賓夕法尼亞大學(xué)今年1月的研究顯示,與使用搜索引擎相比,使用ChatGPT輔助的志愿者寫出的文章篇幅更短、事實引用更少。研究者指出,這是因為AI直接替人類完成了關(guān)鍵的“信息綜合”步驟,將探索與發(fā)現(xiàn)的機會徹底“交卸”給算法,導(dǎo)致學(xué)習(xí)淪為被動接收,對知識的理解也注定流于膚淺。

一些初步證據(jù)顯示,過度使用生成式AI可能會使批判性思維能力下降。瑞士SBS商學(xué)院的邁克爾·格爾利希在一項涵蓋600多人的調(diào)查研究中發(fā)現(xiàn),17—25歲的年輕人比年長者更依賴AI,而他們的批判性思維得分也相應(yīng)低了約45%。格爾利希將其稱為“認(rèn)知懶惰”。當(dāng)人們連真誠的道歉信都習(xí)慣讓AI代勞時,人類大腦可能已經(jīng)開始拒絕處理那些更復(fù)雜、更費力的思考任務(wù)了,這才是最大的隱憂。

AI流暢的語言不代表有思維

既然人類的思考能力似乎岌岌可危,那么AI是否有資格“接管”人類的智力?科學(xué)界對此保持著冷靜,認(rèn)為AI看似聰明的回答,往往掩蓋了其本質(zhì)的局限。

去年6月,《自然》雜志刊登的一篇重磅評論指出:流暢的語言并不代表有思維。

3位美國科學(xué)家通過多重證據(jù)證實了這一點。腦成像顯示,大腦處理語言和推理的區(qū)域是截然分開的。失語癥患者雖失去語言能力,卻依然能解開復(fù)雜的數(shù)學(xué)題。而嬰兒在學(xué)會說話前,就已經(jīng)開始像科學(xué)家一樣探索世界。

如果語言能力并不等同于思考能力,那么當(dāng)下依靠概率預(yù)測下一個詞的大型語言模型就更難被視為“會思考的存在”。它們之所以能生成流暢、似乎頗有見地的回答,只是因為在語言形式上高度擬人化,卻并不具備驅(qū)動語言背后的認(rèn)知引擎。

美國哲學(xué)家理查德·羅蒂指出,所謂常識,往往是那些被反復(fù)使用而失去新意、最終化為固定表達的“死去的隱喻”。而生成式AI恰恰是從這種被大量重復(fù)的人類語言中學(xué)習(xí),它掌握的是語言的“殼”,卻未參與讓語言誕生的真實經(jīng)驗世界。

因此,當(dāng)人們把問題交給AI時,它往往只是反芻已有的詞句,被困在人類數(shù)據(jù)的牢籠里。它可以復(fù)述關(guān)于“騎自行車”的所有物理公式,卻永遠無法像人類那樣,真正理解雙腳離地、保持平衡的一瞬間。

應(yīng)堅持“先思考后AI”

要避免認(rèn)知被削弱,人們必須重塑與生成式AI的關(guān)系,讓它成為增強而非取代思考的工具。但做到這點并不簡單。研究發(fā)現(xiàn),即便自認(rèn)為思維嚴(yán)謹(jǐn)?shù)娜?,一旦缺乏明確指導(dǎo),也會迅速滑向“大腦偷懶”的舒適區(qū)。

不過,美國麻省理工學(xué)院團隊發(fā)現(xiàn),那些先獨立寫過一次作文的志愿者,再用ChatGPT寫第二版時,即便用了AI,大腦仍保持高水平連接度,思維參與度并未下降。

對此,克拉克表示,關(guān)鍵是永遠做那個先思考的人。越多獨立思考,越能提升所謂“混合認(rèn)知”。還有研究者建議,使用AI的正確方式,是把它當(dāng)作強化既有理解的工具,而不是取代思考的捷徑。

克拉克同時提醒,要警惕“錨定效應(yīng)”,即第一條信息往往會主導(dǎo)后續(xù)判斷。即便試圖批判性地評估AI的回答,仍可能被它生成的第一個答案潛移默化地帶偏。對此,他給出了一個巧妙的反向操作策略。例如,寫一件事的負(fù)面影響時,不要直接讓AI列舉負(fù)面例子,可先讓它列舉事實,再自己歸納負(fù)面影響,最后再請AI找漏洞或給出相反論證。

若人們依賴AI提供所有答案,人類原創(chuàng)內(nèi)容會減少,AI訓(xùn)練所需的新鮮數(shù)據(jù)也會枯竭,最終陷入“模型崩塌”,只能重復(fù)自己的內(nèi)容,智力和創(chuàng)造力逐漸下降。如果使用得當(dāng),不只是人類會變得更聰明,AI也會隨之進化。

看來,唯有人類繼續(xù)做那根“會思考的蘆葦”,堅持創(chuàng)造,AI才能真正成為認(rèn)知的助力,而不是取代思維的幻象。(張佳欣)

(責(zé)任編輯:蔡文斌)

關(guān)閉窗口

    主辦單位:忻州日報社 晉ICP10003702 晉新網(wǎng)備案證編號:14083039 晉公網(wǎng)安備 14090202000008號

    律師提示:本網(wǎng)站所刊登的各種信息,均為忻州在線版權(quán)所有,未經(jīng)協(xié)議授權(quán),禁止下載使用,凡不注明出處的將追究法律責(zé)任。

    地址:山西省忻州市長征西街31號 熱線:0350-3336505 電子郵箱:sxxzrbw@163.com