AI合理使用與過度依賴的邊界在哪,?
2025/02/10 10:47 來源:環(huán)球時(shí)報(bào) 閱讀:1.2萬
當(dāng)DeepSeek最新大模型的推出再一次極大提升了人們生活與工作的便利程度,,當(dāng)世界最受關(guān)注的科學(xué)獎項(xiàng)——諾貝爾獎的物理學(xué)獎,、化學(xué)獎授予了人工智能(AI)研究人員,,當(dāng)我們?nèi)找姘l(fā)現(xiàn) AI 滲透到生活的各個角落,,當(dāng)孩子們開始接受 AI 作為他們的老師,、年輕人開始將 AI 當(dāng)作伴侶……我們漸漸意識到,那些曾經(jīng)只存在于科幻片中的場景已經(jīng)真切地走入現(xiàn)實(shí)生活,。AI開始與人類暢談,、回答人類的一切問題、幫助人類做決策,、給予人類情感陪護(hù)……人工智能正在成為人類的“外接大腦”與“機(jī)器義肢”,,在工作與生活的各個場景與人類深度鏈接。
我們似乎越來越離不開 AI,。自DeepSeek-R1上線以來,,由于訪問量快速上漲不時(shí)出現(xiàn)過載現(xiàn)象。在小紅書,、豆瓣,、知乎等社交媒體平臺上,不少用戶因AI 服務(wù)中斷而心生不適:“失去AI的幾小時(shí)就像斷了胳膊腿一樣難受,,話也寫不通順了,,只能不斷刷新頁面祈求快點(diǎn)恢復(fù)”。AI伴侶應(yīng)用Replika因停止了對用戶的“浪漫回復(fù)”,,導(dǎo)致很多長期用戶感到焦慮,、抑郁,。從認(rèn)知到情感,一些用戶開始患上“AI過度依賴癥”,。
這給我們帶來一個關(guān)鍵的問題:“AI合理使用”與“AI過度依賴”的邊界在哪里,?過度依賴的形成,意味著個體掉入了“無AI不能”的怪圈,,逐漸習(xí)慣于“事事找AI”,,將自身的決策權(quán)力、思考能力乃至情感寄托讓渡于AI,,甚至忽視或放棄對AI反饋的監(jiān)督和批判,。與之相對,合理使用AI倡導(dǎo)一種理性且負(fù)責(zé)任的用戶參與,,人類保留關(guān)鍵決策權(quán),,根據(jù)AI能力使其輔助參與決策,并對其反饋進(jìn)行監(jiān)控和修正,。遺憾的是,,每一項(xiàng)帶來偉大變革的技術(shù)總是讓人類面臨逐漸沉迷的風(fēng)險(xiǎn)。從電視依賴,、智能手機(jī)依賴到人工智能依賴,,技術(shù)烏托邦的吸引力呈現(xiàn)出相似的邏輯,但必須承認(rèn),,從未有任何一項(xiàng)技術(shù)像AI一樣,,如此徹底地接管人類生活的方方面面。這意味著,,“AI過度依賴癥”將給人類帶來更大的風(fēng)險(xiǎn)與挑戰(zhàn),,亟需社會各界的警醒與重視。
于個體而言,,“AI過度依賴癥”很可能導(dǎo)致人類的認(rèn)知力,、判斷力、創(chuàng)造力,、感知力逐漸萎縮,。認(rèn)知心理學(xué)的研究表明,認(rèn)知功能就像肌肉一樣,,需要通過鍛煉才能維持,。如果個體習(xí)慣于借助大語言模型、智能助手獲取答案,,將導(dǎo)致“大腦”逐漸懶惰,、貪圖“立等可取”的舒適圈,從而失去思考問題的動力,,并養(yǎng)成如AI般“模版化”的思維習(xí)慣,。此外,,長久地過度依賴AI將使人類的認(rèn)知系統(tǒng)失去除“AI數(shù)據(jù)庫”之外的養(yǎng)料,這會導(dǎo)致失去對AI生成內(nèi)容的判斷力,,并輕易地將AI的答案奉為圭臬,。從這個意義上說,“AI過度依賴癥”將從根本上導(dǎo)致人類思維深度淺表化,、思維邊界狹窄化和思維僵化,。
更令人擔(dān)憂的是,對AI的過度依賴,,將使那些經(jīng)由人類想象與探索,、依靠時(shí)間釀造與沉淀的創(chuàng)作任務(wù)被轉(zhuǎn)交給AI。當(dāng)人類的創(chuàng)造性因與AI競速而失去用武之地時(shí),,我們驗(yàn)證自我價(jià)值的內(nèi)在需求也將被逐漸消解,。在工具性依賴之外,人類也有可能形成對AI的情感性依賴,。不加節(jié)制的情感依賴將替代或切除人類對社交關(guān)系的真實(shí)感知,,引發(fā)對人際情感的逃避與排斥。
當(dāng)然,,對“AI過度依賴癥”風(fēng)險(xiǎn)的揭示不意味著要陷入“新技術(shù)恐懼”之中,。面對人機(jī)共生時(shí)代的種種隱患,只有敢于問診并開出藥方,,才能讓AI為人類所用,,向良善而生?!癆I過度依賴癥”的有效藥方,,既需要政策法規(guī)的介入,,亦需要個體層面的理性參與,。2023年7月發(fā)布的《生成式人工智能服務(wù)管理暫行辦法》第十條首次強(qiáng)調(diào),應(yīng)采取有效措施防范未成年人用戶過度依賴或者沉迷生成式人工智能服務(wù),。當(dāng)前,,中國等人工智能大國以及聯(lián)合國這樣的國際組織均在積極參與人工智能治理。各國際行為體需要繼續(xù)加強(qiáng)合作,,共同構(gòu)建以人為本,、可信任、透明和包容的人工智能未來,。與此同時(shí),,也應(yīng)意識到,再有效的監(jiān)管措施也難以解決個體的漠視,。每一個人工智能的使用者,,都應(yīng)多一點(diǎn)對AI潛在風(fēng)險(xiǎn)的認(rèn)識,、多一點(diǎn)與AI保持距離的嘗試,多一點(diǎn)向AI監(jiān)督問責(zé)的意識,,牢牢掌握人機(jī)交互的主動權(quán),。(作者分別是清華大學(xué)新聞與傳播學(xué)院副院長、教授,,清華大學(xué)新聞與傳播學(xué)院博士研究生)