黃仁勳談AI:警示而非恐嚇,技術發展忌恐慌
核心觀點:AI需理性看待,恐慌是最大國家安全風險之一:
2026年3月20日,英偉達首席執行官黃仁勳在公司技術大會的小組討論中,針對當下熱議的AI發展與安全問題發表核心觀點,同時回應了重要客戶Anthropic與美國五角大樓的糾紛。
他明確表示,向公眾發出人工智慧相關警示是好事,但藉此製造恐慌、進行恐嚇則不可取,「因為這項技術對我們來說太重要了」。
黃仁勳進一步指出,人工智慧領域當下存在的一大國家安全風險,並非技術本身的漏洞,而是民眾因過度宣傳產生的憤怒、恐懼與多疑情緒。
這種負面情緒若持續蔓延,將直接導致美國在AI技術的落地應用與發展速度上,落後於全球競爭對手。
他強調,科技行業領袖作為行業發聲者,更需謹言慎行,把握好風險提示的尺度,避免引發不必要的公眾恐慌。
背景聚焦:Anthropic與五角大樓的AI使用之爭:
此次黃仁勳的表態,源於英偉達重要客戶Anthropic與特朗普政府的持續對峙。Anthropic作為聊天機器人Claude的開發商,近期因堅持AI技術的倫理使用原則,與五角大樓的合作徹底破裂。
事件的核心矛盾在於,Anthropic首席執行官Dario Amodei始終要求在與五角大樓的合作合同中,加入明確的限制條款:禁止將其AI產品用於對美國民眾的國內監控,同時禁止用於開發全自動武器。這一要求與五角大樓的使用需求相悖,最終導致談判破裂。
特朗普政府隨後宣布Anthropic構成供應鏈風險,並著手將其從整個政府層面的合作體系中剔除。
面對這一決定,Anthropic已正式提起訴訟,請求法官撤銷政府對其的供應鏈風險認定,這場圍繞AI軍事使用與倫理邊界的糾紛仍在持續發酵。
據悉,Anthropic此前曾與五角大樓簽署過價值2億美元的合作合同,其Claude模型也曾部署於美軍機密網路,此次合作破裂也成為美國AI行業與政府之間,關於技術使用邊界的典型爭議事件。
行業視角:AI發展的邊界與平衡
Anthropic與五角大樓的糾紛,折射出當下全球AI發展過程中亟待解決的核心問題——技術應用的邊界與安全平衡。企業堅持AI倫理底線,拒絕技術被濫用;
政府則從國家安全角度出發,希望獲得技術的無限制使用權,二者的矛盾成為行業發展的重要考驗。
而黃仁勳的表態,也代表了部分科技行業領袖的觀點:AI作為顛覆性技術,其發展與應用既需要警惕潛在風險,做好必要的安全提示,也不能因過度放大風險而阻礙技術進步。
唯有在風險防控與技術發展之間找到平衡,才能讓AI技術真正發揮價值,同時避免因恐慌錯失發展機遇。
目前,Anthropic的訴訟案已引發美國科技行業的廣泛關注,微軟等企業也已發聲支持Anthropic,這場案件的結果也將對未來美國乃至全球AI技術的軍事應用與倫理規範,產生重要影響。
如果你還想了解更多投資底層邏輯,獲取精準決策參考,以及想知道我們董事會接下來對英偉達的具體目標價位和操作節奏?想知道的話,點擊這裡進入頻道!!