久久ER99热精品一区二区-久久精品99国产精品日本-久久精品免费一区二区三区-久久综合九色综合欧美狠狠

新聞中心

EEPW首頁 > 智能計算 > 設計應用 > 無防護構建AI:半導體生態直面標準分裂、IP泄露與運行時保障危機

無防護構建AI:半導體生態直面標準分裂、IP泄露與運行時保障危機

作者: 時間:2026-05-08 來源: 收藏

人工智能正以遠超監管規則的速度滲透整個,IP 盜竊、安全漏洞風險急劇上升,且缺乏有效防范手段。

從嵌入 EDA 流程的基礎模型,到影響設計、驗證與物理實現的智能體系統,AI 正在重塑芯片開發方式與風險引入路徑。盡管業界普遍認同 AI 治理的必要性,但現有舉措碎片化、解讀不統一、重意圖而輕可衡量結果。簡單說:當前治理嚴重不足,傳統監管方式已落后,且難以追上創新步伐。

一、AI 治理:缺失的 “護欄”

Dana Neustadter(新思科技):“AI 治理需要指導原則、法規、政策與框架流程,引導負責任的開發、部署與使用。如同汽車的功能安全與網絡安全,AI 系統需要保障數據安全、模型完整性、訪問控制與身份認證,以此建立信任、倫理、問責與透明度?!?/p>

安全關鍵行業很可能成為首個可落地、可強制執行的 AI 問責樣板,復制汽車、工業控制、航空航天與軍工領域的安全標準演進路徑。

John Weil(Synaptics):“半導體行業與生態伙伴幾十年里一直協同建立安全標準,從 90 年代軍工 / 航空安全,到汽車與工廠自動化催生大量 ISO 規范。但在 AI 領域,我們至今沒有這套體系。如果有人說‘我要用 AI 做工業自動化安全產品’,這兩個詞現在很難放在一起。”

二、定義用例:AI 治理的關鍵

專家普遍將 AI 分為兩類截然不同的用例:

1. 數據管理類

在網絡安全領域已相對成熟,例如殺毒軟件、安全運營中心(SOC)已大量由 AI 驅動。面對海量數據與關聯復雜度,人類分析師已無法處理,AI 負責第一層內容與元數據分析。

但這里存在重大治理問題:

Sylvain Guilley(Secure-IC/Cadence):“SOC 運營者并不真正擁有數據,只是監控。如果數據包含敏感機密信息,治理必須確保 AI 不會導致信息損壞、泄露或被攻擊。依賴 SaaS 等外部服務商時,數據所有者與分析者不一致,風險極高?!?/p>

2. 代碼 / 硬件生成與驗證類

更大的風險來自AI 生成知識產權。

“這里存在灰色地帶:輸出歸誰所有取決于大模型的授權協議、訓練數據來源、出口管制規則。我在法國使用國外工具,廠商說我擁有輸出結果,但數據可能已流向其他國家,目前沒有更強的法律依據?!?/p>

三、IP 安全風險空前嚴峻

基礎模型與 AI 智能體在全行業普及,帶來遠超表面的深層風險。

Alexander Petr(是德科技 EDA):“IP 安全是我最大擔憂。所有人都想極速推進,有意或無意泄露 IP 的風險極高。大家對自家 IP 非常謹慎嚴格,但對他人 IP 卻沒有同等嚴謹性?!?/p>

例如,客戶要 智能體流程,需要來自晶圓廠的信息,這些信息過去受 NDA 保密協議約束。

“現有 NDA 完全沒有說明如何在 AI 化過程中處理晶圓廠 IP。所有晶圓廠都在糾結:PDK 能否輸入基礎模型?目前沒有法律先例,所有討論最終都卡在 NDA 上,除此之外沒人有答案。”

設計公司從晶圓廠獲取 PDK / 庫文件輸入大模型,從 EDA 廠商獲取工具受用戶授權協議(ULA)約束。但現有 ULA 幾乎不涉及 AI,只簡單提到反向工程。

“用戶把兩邊信息都喂給大模型以求自動化與智能體能力。他們認為只要本地部署、做好安全就沒問題。但我們能指望他們妥善保護 IP 嗎?能確保配置不會泄露回基礎模型嗎?還是遲早會因為不當操作導致我們的信息進入模型?”

芯片架構師必須在鼓勵創新與強制安全之間艱難權衡,需要可適配的行業標準與法律框架,確保在日益復雜的芯片設計中負責任地融合 AI。

四、AI 加劇軟件開發壓力

AI 工具讓編碼、測試、部署速度大幅提升,但也帶來質量、可解釋性與安全隱患。開發者可能在不完全理解含義與漏洞的情況下直接使用 AI 生成結果。

Jason Oberg(Arteris):“在傳統軟件開發中,大模型生成代碼已非常普遍,生成 RTL、Verilog、VHDL、測試平臺的情況也在增多,但不如 JS、C 語言普及。芯片設計的測試與驗證原本非常嚴格,因為硬件無法打補丁。但現在出現問題:用 AI 生成設計,再用 AI 生成測試,測試通過就認為沒問題,這其中存在巨大隱患。驗證團隊與設計團隊如果只追求快 10 倍交付,會傾向跳過嚴謹校驗?!?/p>

五、主要 AI 治理法規 / 標準一覽


六、AI 治理應由政府強制推行嗎?

Neustadter(新思科技):“強制要求與責任界定能讓合規變得必要,但即使歐盟 AI 法案這類強制規則,依然存在明顯缺失。當前大多數系統無法在運行中主動發現問題、快速定位故障、界定責任、防止復發?!?/p>

補上這層 “缺失的運行時保障”,需要持續監控、事件上報、明確性能閾值。同時全球法規互不兼容,缺乏統一標準,是 AI 治理最緊迫的缺口。

Mike Eftimakis(CHERI Alliance):“我們在不顧后果地 rushed AI 上市。市場只會獎勵先發者與快速創新者,無法自行解決問題,唯一途徑是監管。但這不是一國問題,是全球問題。而政府立法永遠比技術慢得多?!?/p>

Guilley(Secure-IC):“需要全行業統一強制治理規則,否則連定義都無法對齊。AI 讓情況更復雜,數據與算法混合、互相訓練、形成反饋環,失控風險極高。”

行業普遍認為:政府很難主導制定標準,因為技術變化太快,監管機構缺乏嵌入式與底層技術理解。最可能的路徑是復制汽車行業模式:產業先形成實踐,政府再進行評測與認可。

Weil(Synaptics):“最先出現監管的領域一定是汽車 + AI,而不是政府憑空制定。政府只會事后度量?!?/p>

Petr(是德科技):“監管太慢、解釋太寬、可能過于嚴苛扼殺速度。等標準出臺時已經過時。我們現在只剩下盲目樂觀與僥幸心理?!?/p>

七、結論

AI 治理包含可執行問責、運行時保障、IP 與數據保護、人工監督、可解釋性、結果導向控制,這些將率先在安全關鍵行業落地,再逐步普及為通用規范。

Guilley:“大模型天生具有非確定性,每次回答都可能不同,難以保證一致結果,給預測性帶來巨大挑戰。”

真正管控 AI,必須從設定明確要求開始,引導市場落地標準。

AI 治理不應阻礙創新,目標是確保強大的 AI 系統實時可信、負責行事、保護關鍵資產、失效時安全可控。



評論


相關推薦

技術專區

關閉