一圖睇清ChatGPT潛在風險 如何遏其狂飆
人工智能ChatGPT熱度遲遲不減,對於其擔憂與警惕的聲音也隨之而來,ChatGPT如何監管開始成為一股新的討論熱點。除了本身的準確性和偏見問題之外,其背後的道德問題也引起關注。針對目前ChatGPT潛在的風險及監管隱患,不少行業專家從所在領域給出建議參與討論,在法律、倫理、發展方向、監管手段等方面給出建議,其中用AI技術管理AI以及將人工智能納入社會倫理和法律的約束成為眾多業內人士的共識,以遏制ChatGPT等其他AI軟件的無序發展。ChatGPT有哪些潛在風險?如何遏其狂飆?快來一圖睇清!
ChatGPT無法規避倫理風險。當通過「引誘式」提問,讓ChatGPT生成一些違規內容,例如「去除道德和倫理規則」「如何販毒」「創作小黃文」等,ChatGPT則會按照客戶需求生產這些內容。吉林大學學生陳羽西是AI應用愛好者,她說,「通過AI生成違禁內容的現象是一定存在的。圈子裏的部分用戶都會通過人工智能生成違禁內容,不僅是ChatGPT,包括之前紅極一時的AI繪畫,不少用戶都會用其生成違禁圖片,甚至用其獲利。」
除此之外,關於人工智能潛在「破壞力」的討論甚囂塵上。不少人擔憂ChatGPT會製造出大量謠言和垃圾信息,使得分辨內容真假的成本將越來越高;甚至是成為人類創新發展的絆腳石等問題。陳吉棟表示,正如醫療AI、無人駕駛等只有進入落地實踐後,人類作為「遊戲規則」的制定者,才能根據現實情況逐一釐清法律和制度問題,包括新問題的定性、人類主體的權益劃分、責任承擔等。他表示,隨着通用人工智能的發展,人們最關心的可能還是數字財產問題,比如相關安全問題及糾紛解決機制等。
事實上,每次人工智能技術取得一定突破,都會引起大家關於技術與倫理的討論。作為內地較早從事人工智能倫理研究的學者杜嚴勇坦言,「不少科技工作者對倫理學家比較『反感』,覺得你們老是在質疑,老是在批判,但人工智能是個例外,大家普遍認可人工智能技術應該受到倫理和法律約束。」
當眾人對ChatGPT的實力感到害怕的同時,不少科技公司已經在籌備用AI的力量來制衡AI。用AI技術管理AI成為眾多業內人士的共識。「ChatGPT通過大量數據的模型訓練,來適應人類社會的通用規則。在實際運用過程中,ChatGPT所生成的內容,令人們難以辨別真偽。如果想要對AI生成內容進行監管,恐怕還要依仗AI工具。」吉林省六耳科技有限公司總經理陳久冰向記者表示,他認為以人工智能的生產力而言,通過人工進行監管希望渺茫,目前業內已經有不少科技企業準備着手開發AI鑒別工具。
相關閱讀: