
過去兩年,人工智慧(AI)技術的突破讓人們驚嘆其「聰明」程度。我們曾經著迷於AI的對話能力、翻譯技能和創作潛力,但如今,隨著AI從簡單的聊天機器人逐步發展成能夠直接買東西、簽合約的「智能體」時,焦點已經轉向了權力邊界的討論。我們不得不思考:人類在享受AI便利的同時,是否仍保持對決策過程的控制?
美國《富比士》雜誌網站近期關注到該趨勢,並指出AI競爭的一個新規則已經浮出水面——信任。信任不再是企業的軟性優勢,而成為產品設計中不可忽視的「硬指標」。未來數位世界的控制權將歸屬於那些能平衡「能力」與「可靠」的平台。換句話說,AI的「代理權」將不再僅取決於其技術能力,而是取決於其能否讓用戶在交出控制權的同時,依然感到安全與放心。
「代理權」越位或違反使用者意願
這種安全感的本質,是人類對「代理權」越位的深層警戒。以前,AI是一個“問答機”,人類下指令,AI來執行。但現在,AI正在向「智能體」進化,這意味著它從被動響應轉向了主動執行。
根據國外駭客新聞網(The Hacker News)1月24日發布的文章指出,AI智能體不僅僅是另一種類型的「使用者」。它們與人類使用者、傳統的服務帳戶有著本質區別,正是這些差異,導致現有的存取權和批准模型全面失效。在實際操作中,為了讓AI能有效率地完成任務,系統賦予智能體的權限往往比使用者本身擁有的更高。這種「存取權限漂移」有可能導致AI在使用者不知情、未授權的情況下,執行了技術層面合法、但違反使用者自主意願的操作。
當「代理人」的技術權力在事實上大過主人,人類在數位世界的控制權便麵臨被「架空」的風險。這種權力的隱形流失,並非源自於科技的惡意,而是因為系統在追求效率的過程中,悄無聲息地打破了人類的「數位主權」邊界。德勤在1月21日發布的報告中指出,目前AI的「代理權」已經超越了其安全防禦措施。數據顯示,全球僅20%的公司建立了成熟的AI智能體治理模式。這種“4/5的空白”意味著,大多數企業和個人在將控制權交給AI時,實際上是在“裸奔”,這進一步加劇了人類主權被架空的潛在風險。
重塑人機權限契約邊界
為了奪回這種控制權,全球的技術治理者正試圖將「可靠」寫入底層程式碼。新加坡資媒局(IMDA)於1月22日發布的《智能體AI治理框架》提出了一個核心概念,即「有意義的監督」。 IMDA指出,僅僅在流程裡加一個「人工點擊確認」的按鈕是不夠的。如果AI的決策過程像一個看不透的黑盒子,人類的批准就會變成一種盲目的走過場。真正的控制,要求AI必須讓使用者看懂它的意圖和可能的後果。
根據《富比士》雜誌介紹,目前科技界開始推崇一種「雙重授權」架構。這種架構的核心在於將AI對資料的「存取權」與對結果的「行動權」分開。這意味著,AI可以幫人們查資料、起草方案,但在涉及付錢、簽合約或修改隱私的關鍵環節,必須觸發一個獨立的驗證開關,把決策的「閘門」重新交還給人類。這種權限重塑確保了科技無論怎麼進化,始終只是人類意志的延伸,而不是替代。
「信任」應成為產品硬指標
過去,我們習慣把所有個人資料交給遠方的雲端巨頭。但《富比士》指出,伴隨AI長大的年輕人,開始反思這種「讓渡」的代價。這些所謂的“AI原生代”正在產生一種“主權覺醒”,他們不再信任將所有私人資料交付雲端,而是要求AI在本地化、私有化的基礎設施上運行。
事實上,德勤報告中提到的「主權AI」正演變為一種個人訴求:使用者希望AI能根據特定的法律、數據和個人偏好在本地部署。下一代使用者不會只是被新奇事物所吸引,他們更關注自主權:我能否控制系統了解我的哪些資訊?我能否塑造它的行為方式?我能否在不遺失資料的情況下隨時退出?
當信任成為一種硬性的產品指標時,AI開發者的目標也發生了轉移。功能和成本已不足以成為核心競爭力,如何在權限控制、數據使用以及決策透明度上取得信任,才是AI產品真正的吸引力所在。歸根究底,AI重建數位世界控制權的過程,本質上是人類在科技叢林中尋找新安全感的過程。正如《富比士》所言,未來的AI「代理權」將是一種「合法性」的競逐。能證明自己「有所不為」、能把控制權交還給用戶的AI,才能真正走進人類文明的深處。