Tech

WitnessAI 正在為生成AI模型建立護欄

生成AI可以胡亂編造事情,有可能存在偏見。有時它會吐出有毒文字。那麼它可以被“安全”嗎?

WitnessAI的CEO Rick Caccia認為可以。

“保護AI模型是一個真正的問題,特別對AI研究人員來說,這是一個特別引人注目的領域,但這與保護使用是不同的,” Caccia在接受TechCrunch採訪時說道。 “我將它看作是一輛跑車:擁有更強大的引擎 — 即模型 — 除非你也有好的煞車和轉向機制,否則不會帶給你什麼。對於快速駕駛,控制同樣重要如引擎。”

企業對此類控制的需求肯定存在,雖然他們對生成AI提升生產力潛力持謹慎樂觀態度,但也對技術的限制感到擔憂。

IBM的一項調查發現,51%的CEO正在招聘今年之前不存在的生成AI相關職位。然而,只有9%的公司表示他們準備應對與使用生成AI相關的威脅 — 包括隱私和知識產權等威脅,根據Riskonnect的一項調查。

WitnessAI的平台截取員工與其僱主正在使用的定制生成AI模型之間的活動 — 不像OpenAI的GPT-4那樣的透過API進入的模型,而更像Meta的Llama 3 — 並應用風險減緩政策和安全防護。

WitnessAI出售對幾個模組的訪問權,每個模組專注於應對不同形式的生成AI風險。其中一個允許組織實施規則,防止特定團隊的員工以不應該的方式使用生成AI動力工具 (例如,詢問預先發布的盈利報告或粘貼內部代碼庫)。另一個從發送給模型的提示中刪除專有和敏感信息,並實施技術來保護模型免受可能迫使其脫稿的攻擊。

“我們認為幫助企業的最好方法是以對問題有意義的方式來定義問題 — 例如,安全採用AI — 然後銷售解決方案來解決問題,” Caccia說道。“首席信息安全官想要保護業務,WitnessAI通過確保數據保護、防止提示注入和執行基於身份的策略來幫助他們做到這一點。首席隱私官想要確保已有和即將到來的法規得到遵守,我們提供他們可見性和報告活動和風險的途徑。”

但從隱私角度來看,WitnessAI有一個棘手的問題:所有數據都會通過其平台進入模型。公司對此透明,甚至提供工具來監控員工訪問的模型、他們向模型提出的問題以及他們獲得的回答。但這可能會造成自身的隱私風險。

針對關於WitnessAI隱私政策的問題,Caccia表示該平台是“隔離的”並加密以防止客戶機密泄漏。

“我們建立了一個毫秒延遲的平台,內置了法規分離 — 一種獨特的、隔離的設計,以保護企業AI活動,這與通常的多租戶軟件即服務服務有根本區別,” 他說。“我們為每個客戶創建一個單獨的平台實例,用他們的金鑰進行加密。他們的AI活動數據僅對他們可見 — 我們看不到它。”

或許這些舉措可以減輕客戶的擔憂。至於對WitnessAI平台的監控潛力感到擔憂的工人,這是一個更棘手的問題。

調查顯示,人們通常不喜歡他們的工作活動被監控,無論原因如何,並認為這對公司士氣造成負面影響。根據《福布斯》的一項調查,接近三分之一的受訪者表示,如果雇主監控其在線活動和通信,他們可能考慮離職。

但Caccia堅稱,WitnessAI平台的興趣一直很強烈,而且仍然如此,在其概念證明階段有25家早期公司用戶的管道。(直到第三季度才會普遍推出。) 此外,WitnessAI獲得了來自Ballistic Ventures(該公司孵化了WitnessAI)和谷歌企業投資部門GV的2750萬美元的投資。

該計劃是將這筆資金用於將WitnessAI的18人團隊擴大到今年年底的40人。增長肯定將是擊敗WitnessAI在模型合規性和治理解決方案新興領域的競爭對手的關鍵,不僅來自像AWS、Google和Salesforce等大型科技巨頭,還來自CalypsoAI等初創公司。

“我們已經按照計劃,即使完全沒有銷售,也可以走得很遠,但我們已經有了幾乎可以達到今年銷售目標所需管道的20倍,” Caccia說道。“這是我們的初始融資回合和公開發布,但安全的AI啟用和使用是一個新領域,所有我們的功能都是在這個新市場的基礎上發展的。”

我們即將推出AI通訊!在此註冊,從6月5日開始接收到您的收件箱中。

Related Articles

Back to top button Back to top button