人工智能的安全問題引發擔憂,國外媒體已經發出嚴重警告 !

  • 人工智能的安全問題引發擔憂,國外媒體已經發出嚴重警告 !

    Posted by 基地管理員  on 2023 年 5 月 21 日 at 上午 10:01

    據《華爾街日報》報導,蘋果已經限制了OpenAI的ChatGPT和微軟的Copilot的使用。

    根據彭博社的Mark Gurman補充說明,ChatGPT已經被蘋果,還包括三星和Verizon等科技界巨頭,以及包括美國銀行、花旗銀行、德意志銀行、高盛、富國銀行和摩根大通在內的一眾銀行列入禁用名單,主要原因就是機密數據有外洩的可能性 。

    不管怎樣,ChatGPT的隱私政策明確表示,除非你選擇退出,否則你的提示可以用於訓練其生成AI模型,更有可能造成重要機密外洩的可能,當然ChatGPT並不會光明正大地告訴你。

    當然,這些大型、精明而重視保密的公司可能只是過度擔心。但其實目前大眾已經對人工智能聊天機器人是否存在固有問題感到好奇。

    對於各大企業來說,使用人工智能的其中一個成本是計算資源。建立各自的數據中心成本很高,但使用雲端計算將代表你的查詢將在遠程伺服器上進行處理,你基本上依賴其他人來保護你的數據。如此一來,你就可以理解為什麼金融企業可能會人工智能會抱著很大的疑問且敏感。

    除了意外的公開洩漏之外,還存在蓄意的商業間諜行為的可能性。乍看之下,這似乎更像是科技行業的問題 。畢竟,商業秘密的盗竊就是其中之一的風險。但是大型科技公司進入了流媒體行業,所以這對創意領域也可能是一個問題。

    在技術產品涉及隱私和可用性之間總是存在一種推拉關係。在許多情況下:例如Google和Facebook ,用戶已經用他們的隱私換取了免費的產品。Google的Bard明確表示,查詢功能將用於“改進和開發Google產品服務和機器學習技術”。

    但是假設這些公司是對的,可以想到人工智能聊天機器人未來的一些可能性:

    • 第一種可能: 人工智能浪潮的結果和元宇宙一樣,即無法啟動。
    • 第二種可能: 人工智能公司受到各界壓力所逼,進行全面改革並明確概述安全措施。
    • 第三種可能: 每個想要使用人工智能的公司都必須建立自己的專有模型,或者至少運行自己的處理程序,這聽起來既昂貴又難以擴展。
    • 第四種可能: 這將會是一場網絡隱私的噩夢,各大企業在使用人工智能的同時也洩漏個體戶的數據。

    雖然人工智能的發展還沒有明朗。但是如果那些最注重安全性的公司都限制了他們對人工智能的使用,那麼相信其他公司也有充分的理由跟進。

    基地管理員  replied 1 year ago 1 Member · 0 Replies
  • 0 Replies

Sorry, there were no replies found.

Log in to reply.