科大教授馮雁:ChatGPT有時也會「說謊話」 須改善模型
【點新聞報道】香港科技大學電子和計算機工程系教授馮雁在第十四屆夏季達沃斯論壇上表示,ChatGPT有時候也會「說謊話」,虛構圖片信息、歷史情節等,導致人們可能無法分清事實。「當我們使用不同的提示詞,它給出的答案就是不一樣的,我們無法預期它生成什麼答案。有些時候,生成式AI的回答也會帶着偏見和惡意,必須對模型進行改善、改良。」
「現在GPT-3、ChatGPT這些模型不透明,不只是對用戶不透明,對研究人員也不透明。」馮雁說,我們不一定需要重新訓練模型,但希望終端用戶有能力決定他們想要看到的東西。學術機構着眼於未來,可以嘗試開發更小、更可控的模型和工具,使終端用戶控制模型產生的內容。另外,生成式人工智能的研發和應用還應該關注語言資源的差距。
「幾年前,我們一直把第四次工業革命掛在嘴邊,那時剛剛開始起飛,如今這場革命遠遠超過工業的範疇,可能會成為人類文明的下一個革命。」馮雁說,生成式AI非常有潛力,它可以行使很多AI功能。雖然,機器智能在特定任務的表現完全可以與人類大腦相提並論,有的領域甚至超過人類大腦。但每一個需要做決定的領域,都應該讓人類最終說了算。「人類可以把AI作為一種手段和工具,但最終決定權一定屬於人類。」
(點新聞記者張聰報道)
相關報道: