名家觀點
博客・吳老闆筆記・資本政經

辛建國:ChatGPT 的潛在風險及應對


從2022年年底起,人工智能語言模型ChatGPT開始引起廣泛關注。作為一種新型人工智能技術,ChatGPT在自然語言處理方面取得了顯著的成果,「生命未來研究所 」(Future of Life)在3月22日發佈了一封《暫停大型人工智能研究》的公開信,呼籲所有人工智能實驗室立即暫停比 GPT-4 更強大的人工智能系統的訓練,暫停時間至少為 6 個月。人們普遍認為是時候在人工智能系統相關風險變得無法控制之前,對其進行監管並提出了一系列應對措施。本文將探討ChatGPT的潛在風險,並提出一些預防措施。

首先,ChatGPT可能會被用於欺詐和詐騙。由於ChatGPT可以模仿人類的對話方式,一些不良分子可能會利用這種技術來欺騙用戶,例如通過發送虛假的鏈接或信息來騙取用戶的個人信息和財產。為了緩解這種風險,我們需要加強用戶的信息安全意識,警惕不明來源的信息和鏈接。筆者推介警方的「守網者」網站,內裡提供很多寶貴的資訊以預防虛擬世界的詐騙。

其次,ChatGPT存在著潛在的隱私洩露風險。由於ChatGPT需要根據用戶的信息和對話歷史來產生回應,因此它可能會收集和儲存用戶的個人信息和對話記錄。如果這些信息被不法分子獲取,可能會造成用戶的隱私洩露,給用戶帶來損失。為了緩解這種風險,我們需要加強對ChatGPT隱私政策的了解,確保ChatGPT遵守相關的數據私隱法律法規,保護用戶的個人私隱和信息安全。

第三,ChatGPT可能會對人類社交技能產生負面影響。由於ChatGPT可以模仿人類的對話方式,一些用戶可能會過度依賴ChatGPT來進行社交,從而導致他們的社交技能和人際交往能力下降。為了緩解這種風險,我們需要養成良好的人際交往習慣,適當地使用ChatGPT,避免過度依賴。

最後,ChatGPT的錯誤率和偏見可能會對用戶造成影響。由於ChatGPT是通過機器學習算法進行訓練的,因此它可能會存在一定的錯誤率和偏見。例如,如果ChatGPT的訓練數據中存在偏見,它可能會在生成回覆時表現出同樣的偏見。為了緩解這種風險,我們需要對ChatGPT進行更加準確和全面的訓練,避免出現錯誤率和偏見的問題。此外,我們需要對其回答進行事實檢查。這可以通過專門的事實檢查機構或人員來實現,從而確保ChatGPT生成的回答符合事實。

綜上所述,ChatGPT作為一種新型的人工智能技術,雖然為我們帶來了很多便利,但也存在一些潛在的風險,需要我們加以注意和緩解。至於立法或監管問題,筆者認為ChatGPT本質只是一個工具,本身並不需要立法或監管。然而,對於使用ChatGPT的人和機構,可能需要制定相關法規和監管措施。例如,在使用ChatGPT時,需要考慮隱私和數據保護等問題。因此,相關的隱私和數據保護法規可能需要更新和加強。此外,如果ChatGPT被用於自動化決策、判定或預測等領域,可能需要製定相關的倫理準則和監管措施,以確保其使用不會帶來不公正或歧視性的結果。總之,ChatGPT和其他新興技術一樣,我們只要好好認識它,並了解及應對它的潛在風險,便能更好地利用這種技術,為我們的生活帶來更多的便利和為人類社會帶來更多的福祉。

 

撰文:辛建國 香港專業及資深行政人員協會會員

=============

延伸閱讀:2023 數字經濟峰會 吸引超過 4,000 人次參與破紀錄 數碼港:合力打造Web3新時代

=============

深入閱讀政經生活文化,更多內容盡在:

Website:www.capital-hk.com

Instagram:www.instagram.com/capitalplatform.hk/

LinkedIn:www.linkedin.com/company/capitalhk/

Related Articles