早前我在文章指出科技巨頭的AI有私隱隱患,好多人只會覺得無耐,但仍未知道問題可以幾嚴重。近日網絡上大量影片教人如何對ChatGPT進行”越獄”, 由於 ChatGPT被禁止進行一些非法行為或教導用戶做犯法的技術,”越獄”的意思是將禁止解鎖,令ChatGPT 可做到禁止的事情,從而製作出詐騙電郵、假網站、有毒連結。當科技巨頭競爭激烈,不顧後果地推出AI更緊貼知悉個人的生活細節、品味、習慣、家人、朋友連繫,當LLM被黑客入侵,這便變得非常危險,由於AI的運作是在黑盒之中,AI如何作出決定,製造者是無法知道。根據英國《金融時報》最近的一篇報道,一名駭客正在對微軟、ChatGPT和谷歌的LLM進行“越獄”測試,但道高一尺,魔高一丈,黑客始終會找到漏洞。因此,作為用戶,必須有心理準備,改變現時的工作習慣,不要隨便信任,即使是由大企業發出的資訊,而是「verify」,這就好像Crypto 界經常說的「Don’t trust, just verify 」。另外,對於新AI技術切勿跟車太貼,這也是以下BBC影片的忠告。
兩星期前,根據國家網路安全中心前執行長稱,俄羅斯黑客Qilin使用人工智能技術在倫敦NHS供應商Synnovis盜竊大量醫院病人的個人資料,並且加密後進行勒索。估計Synnovis拒絕交贖金,根據BBC報道,資料包括患者姓名、出生日期、NHS號碼和“血液測試”均在暗網被公開。
https://youtu.be/Fg9hCKH1sYs?si=TTOrmzNQBIOLazRh
沒有留言:
發佈留言
請留回應!