最近有一則新聞引起關注,許多企業和學術界人士(包括馬斯克)公開呼籲,要求所有人工智慧實驗室立即停止訓練GPT-4及以上等級的人工智慧。此外,他們也希望在這段時間內,制定一套共同的安全協議,用於設計和開發高級人工智慧,並由獨立的外部專家進行嚴格審核和監督。開發者應該與政策制定者共同加速開發人工智慧治理系統。這不僅僅是對高科技公司的集體呼籲,更像是一個合理的口號,旨在對OpenAI這家公司的內部治理進行法律限制。

在面對人工智慧的時候,我們必須為進步設下防火牆,這是為什麼呢?因為我們無法確定自己到底能夠掌控人工智慧的發展到什麼程度。

這個問題現在不問,未來也必須有人回答。即使是OpenAI執行長Sam Altman也曾表示對人工智慧有著”little bit scared”的感覺。因為人工智慧跟過去的科技有本質上的不同! 過去的科技,人類是使用者,而未來的人工智慧可能會讓人類成為被支配者而不自知。就像一隻猴子養了一隻烏鴉,但是當烏鴉進化成具有人類智商時,猴子會知道嗎?因此,我們不能以”刀子可以傷人,難道就不能夠賣刀嗎?”的比喻方式來形容這個問題。進一步來說,我們必須對人工智慧的進步設定防火牆,以確保人類可以掌握它的發展。

暫停六個月開發高級人工智慧可能只是個虛假議題。

事實上,人工智慧是推動社會進步的強大力量,在現有的政治和經濟環境下,只會加速其發展。中國、歐洲和亞洲的企業都會全力追趕,因為現有的人工智慧工具就像蒸汽火車的發明一樣,若哪一天技術受到”出口管制”,這將對經濟競爭力帶來巨大威脅。此外,人工智慧在軍事、醫療、教育等領域的應用也不容小覷。如果一個國家在人工智慧方面落後,將面臨巨大的競爭壓力。因此,我們必須正視人工智慧的發展趨勢,制定合適的政策和法律,以確保人工智慧的發展不會對人類帶來傷害,同時促進人工智慧的發展,為社會帶來更多的益處。

政府組織動起來

我認為各國政府應該迅速成立AI科技部門,針對教育、醫療、法務、智慧財產、網路安全等方面進行法律合規討論,聘用業界專業人員開發偵查性AI,針對可能的危險應用進行合理的管制。例如,未來可能會出現專門監測AI寫的程式的資安AI,以及專門檢測照片/影片真假的AI。同時,我們也應該對AI在醫療和法務上的應用進行更加超前的研討和測試。因為我們可能已經到達了一個科技奇點,而科技不會停止,因此我們必須隨時準備好回答問題:”我們確定還能掌控AI嗎?”。

如果你是當權者,你會如何決定呢? 歡迎大家一起來思考這個問題

發表迴響