當DeepSeek最新大模型的推出再一次極大提升了人們生活與工作的便利程度,當世界最受關注的科學獎項——諾貝爾獎的物理學獎、化學獎授予了人工智能(AI)研究人員,當我們日益發現 AI 滲透到生活的各個角落,當孩子們開始接受 AI 作為他們的老師、年輕人開始將 AI 當作伴侶……我們漸漸意識到,那些曾經只存在于科幻片中的場景已經真切地走入現實生活。AI開始與人類暢談、回答人類的一切問題、幫助人類做決策、給予人類情感陪護……人工智能正在成為人類的“外接大腦”與“機器義肢”,在工作與生活的各個場景與人類深度鏈接。
我們似乎越來越離不開 AI。自DeepSeek-R1上線以來,由于訪問量快速上漲不時出現過載現象。在小紅書、豆瓣、知乎等社交媒體平臺上,不少用戶因AI 服務中斷而心生不適:“失去AI的幾小時就像斷了胳膊腿一樣難受,話也寫不通順了,只能不斷刷新頁面祈求快點恢復”。AI伴侶應用Replika因停止了對用戶的“浪漫回復”,導致很多長期用戶感到焦慮、抑郁。從認知到情感,一些用戶開始患上“AI過度依賴癥”。
這給我們帶來一個關鍵的問題:“AI合理使用”與“AI過度依賴”的邊界在哪里?過度依賴的形成,意味著個體掉入了“無AI不能”的怪圈,逐漸習慣于“事事找AI”,將自身的決策權力、思考能力乃至情感寄托讓渡于AI,甚至忽視或放棄對AI反饋的監督和批判。與之相對,合理使用AI倡導一種理性且負責任的用戶參與,人類保留關鍵決策權,根據AI能力使其輔助參與決策,并對其反饋進行監控和修正。遺憾的是,每一項帶來偉大變革的技術總是讓人類面臨逐漸沉迷的風險。從電視依賴、智能手機依賴到人工智能依賴,技術烏托邦的吸引力呈現出相似的邏輯,但必須承認,從未有任何一項技術像AI一樣,如此徹底地接管人類生活的方方面面。這意味著,“AI過度依賴癥”將給人類帶來更大的風險與挑戰,亟需社會各界的警醒與重視。
于個體而言,“AI過度依賴癥”很可能導致人類的認知力、判斷力、創造力、感知力逐漸萎縮。認知心理學的研究表明,認知功能就像肌肉一樣,需要通過鍛煉才能維持。如果個體習慣于借助大語言模型、智能助手獲取答案,將導致“大腦”逐漸懶惰、貪圖“立等可取”的舒適圈,從而失去思考問題的動力,并養成如AI般“模版化”的思維習慣。此外,長久地過度依賴AI將使人類的認知系統失去除“AI數據庫”之外的養料,這會導致失去對AI生成內容的判斷力,并輕易地將AI的答案奉為圭臬。從這個意義上說,“AI過度依賴癥”將從根本上導致人類思維深度淺表化、思維邊界狹窄化和思維僵化。
更令人擔憂的是,對AI的過度依賴,將使那些經由人類想象與探索、依靠時間釀造與沉淀的創作任務被轉交給AI。當人類的創造性因與AI競速而失去用武之地時,我們驗證自我價值的內在需求也將被逐漸消解。在工具性依賴之外,人類也有可能形成對AI的情感性依賴。不加節制的情感依賴將替代或切除人類對社交關系的真實感知,引發對人際情感的逃避與排斥。
當然,對“AI過度依賴癥”風險的揭示不意味著要陷入“新技術恐懼”之中。面對人機共生時代的種種隱患,只有敢于問診并開出藥方,才能讓AI為人類所用,向良善而生。“AI過度依賴癥”的有效藥方,既需要政策法規的介入,亦需要個體層面的理性參與。2023年7月發布的《生成式人工智能服務管理暫行辦法》第十條首次強調,應采取有效措施防范未成年人用戶過度依賴或者沉迷生成式人工智能服務。當前,中國等人工智能大國以及聯合國這樣的國際組織均在積極參與人工智能治理。各國際行為體需要繼續加強合作,共同構建以人為本、可信任、透明和包容的人工智能未來。與此同時,也應意識到,再有效的監管措施也難以解決個體的漠視。每一個人工智能的使用者,都應多一點對AI潛在風險的認識、多一點與AI保持距離的嘗試,多一點向AI監督問責的意識,牢牢掌握人機交互的主動權。
(來源:環球時報)