近期人工智慧的相關運用在學界掀起熱烈討論,台灣學術倫理教育學會近日召開會議指出,ChatGPT雖可提供資料蒐集及彙整,但卻不會檢查資料的真假優劣,也缺乏科學邏輯的論述,而研究者用ChatGPT查找資料,須對產出負全部責任。
學會認為,在知識發展的過程中,若能有好的工具協助,確實可以增進學習和研究的效率。如透過人工智慧科技輔助工具協助整理已有的資訊,可以加速研究的進行和發表,促進科學的開放性,進而創造新的知識。因此,應以積極的態度看待這些新科技的發展。
然而,學會表示,人工智慧科技例如ChatGPT作為學習及研究的輔助工具,雖可提供即時的資料蒐集及彙整,或可減輕資料查找及整理的工作,但ChatGPT的設計類似接話程式,不會檢查資料的真假優劣、不提供資料的來源及引用,也缺乏科學邏輯的論述。
根據會議結論,學會主張面對科技發展,研究者應有更高階的專業能力,包括問出適切的問題並進一步追問、驗證資訊和批判,善用AI工具創造新的知識。
學會建議研究單位要思考AI科技5個面向,包括知識建構的過程、學術研究的課責性、學術研究的透明性、網路資料庫的重要性、科技的侷限性。其中課責部分,學會認為,研究者可用AI改善研究效率,但用AI找到的資料是否真實,研究者必須對自己的研究行為和產出負全部責任。
著作權議題也受到關注,學會分析,AI系統不是人,不能主張著作權保護,開發公司也應不會主張,因為不知道使用者會如何應用這些資訊。然而,AI系統使用網路上的資料,擁有這些資料的著作人,有可能主張智慧財產權,研究者引用時須留意。
學會也提到,科技一定有侷限,以ChatGPT為例,資料庫目前只更新到2021年,且正確性也無法確認,查出的資訊須再人工驗證。現今的ChatGPT比較像是文字編修或資料統整的工作,不善於產生新的知識與學術發現。◇