(相關資料圖)
在谷歌的I/O大會上,大部分的談話都是關于AI的。該公司推出了GoogleBard作為響應OpenAI的ChatGPT(通常稱為LLM聊天機器人或大型語言模型聊天機器人)的實驗產品。似乎谷歌在幕后對人工智能聊天機器人并不那么熱心。
路透社現在報道稱,谷歌據稱已告知員工要警惕使用LLM聊天機器人,包括谷歌自己的Bard。
谷歌擔心隱私和安全,據稱建議員工在使用GoogleBard時要格外小心
谷歌似乎發現了員工使用GoogleBard時可能出現的一些隱私和安全問題。一方面,據報道該公司告訴其開發人員不要使用聊天機器人可以生成的代碼(谷歌I/O大會期間展示了GoogleBard的代碼生成功能)。
主要是,問題似乎是公司機密。如果您一直關注移動技術世界(或一般的技術世界),您就會看到過去幾年發生的大量泄密事件,破壞了大產品的發布。
基本上,如果員工將機密信息輸入Bard或ChatGPT,這些信息就會公開。這同樣適用于代碼字符串,這可能會危及代碼的安全性,將其展示給可能利用它的潛在黑客。
據報道,三星和亞馬遜等其他公司在人工智能方面也有護欄。
谷歌在給路透社的評論中表示,它努力對Bard的局限性保持透明,并表示在代碼方面,Bard可以成為一個有用的工具,盡管有時它可能會提出不受歡迎的建議。
與此同時,據報道,在Bard推遲在推出后(同樣是出于愛爾蘭監管機構對隱私的擔憂),谷歌正在與愛爾蘭的數據保護委員會進行談判。
關鍵詞: