近日,英國羅素大學集團發(fā)布生成式人工智能工具的使用原則,指導聯(lián)盟內(nèi)部24所大學直面ChatGPT等生成式人工智能工具帶來的挑戰(zhàn),同時指導學校合理使用人工智能工具,培養(yǎng)技術社會所需的具有數(shù)字素養(yǎng)的人才。在ChatGPT席卷全球教育系統(tǒng)的當下,教育部門應當如何應對?今年早些時候,英國教育部發(fā)布了針對教育領域使用生成式人工智能的官方指南,以擁抱其帶來的機遇,應對相應的挑戰(zhàn)。
教育部門需要掌握四個關鍵信息。第一,普通公眾利用生成式人工智能產(chǎn)出內(nèi)容,給教育部門帶來機遇和挑戰(zhàn)。第二,如果包括生成式人工智能在內(nèi)的技術使用得當,可能會減少整個教育部門的工作量,釋放教師非教學時間,使他們能夠?qū)W⒂谔峁﹥?yōu)秀的教學。第三,學校、學院和大學以及認證機構(gòu)需要采取合理措施,預防在使用生成式人工智能和其他新興技術方面的不當行為。第四,教育部門必須繼續(xù)保護其數(shù)據(jù)、資源、員工和學生免受生成式人工智能的消極影響。
教育部門應制定應對生成式人工智能的有效策略。
英國教育部意識到減輕教師工作負擔是一個重要問題,并一直致力于幫助教師減少在非教學活動上花費的時間。而恰當利用生成式人工智能,有可能幫助教師減少大量的非教學工作時間,從而減輕工作負擔。英國教育部正在召集專家與教育部門合作,分享和確定使用生成式人工智能改善教育、減少教師行政工作量的最佳實踐和機會。
教育部門所有人員必須認識到,生成式人工智能工具會產(chǎn)生不可靠的信息,所有生成的內(nèi)容都需要通過專業(yè)判斷來檢查適當性和準確性。同時,生成式人工智能是根據(jù)訓練過的數(shù)據(jù)庫給出結(jié)果。多數(shù)情況下,這個給定的工具并沒有經(jīng)過國家課程體系的訓練。所以,教育部門不要想當然地將人工智能的產(chǎn)出與在課程背景下人工開發(fā)設計的資源相提并論。
無論在制定行政計劃、政策或文件時使用何種工具或資源,最后文件的質(zhì)量和內(nèi)容應仍然由制定者及其所屬組織負責。大中小學可能需要考慮家庭作業(yè)以及其他無監(jiān)督學習的方式,對生成式人工智能的可行性作出探索。
教育部門要關注未來知識和技能培養(yǎng),培養(yǎng)為明天做好準備的人。
為一個不確定的未來做準備的最好方法,是在已被證明對建設當今世界最有影響力的知識上打下堅實的基礎。英國科學、創(chuàng)新與技術部下屬的人工智能辦公室目前正在對未來勞動力培訓所需的技能進行研究。
為了利用生成式人工智能的潛力,學生需要具備淵博的知識并不斷開發(fā)他們的智慧。扎實的基礎知識可以確保學生具備正確的技能,以更好地利用生成式人工智能工具。因此,一個嚴謹且豐富的課程體系對于學生為未來做好準備仍然是至關重要的。
教育部門需要讓學生為不斷變化的勞動力市場做好準備,在教育的不同階段,教他們?nèi)绾伟踩?、適當?shù)厥褂蒙墒饺斯ぶ悄艿刃屡d技術。同時,幫助學生理解生成式人工智能的局限性、可靠性和潛在偏見,了解互聯(lián)網(wǎng)信息如何組織和排序、如何防止有害或誤導性內(nèi)容等網(wǎng)絡安全常識。
教育系統(tǒng)應支持學生,特別是青年學生,識別和使用適當?shù)馁Y源來支持他們不同階段的教育。這包括鼓勵他們有效使用適合其年齡段的、可能由生成式人工智能產(chǎn)生的資源,并防止他們過度依賴單一工具或資源。
英國教育部表示將與專家合作,考慮和應對生成式人工智能以及其他新興技術的影響,為16歲以下兒童和青少年開設豐富的計算機課程。
教育部門要完善考試及資格認證等正規(guī)評估流程。
學校、學院和大學以及認證機構(gòu)需要繼續(xù)采取合理措施防止涉及使用生成式人工智能在內(nèi)的不當行為。例如,英國考試委員會已經(jīng)出臺了嚴格的規(guī)定,以確保學生獨立完成作業(yè)。
雖然生成式人工智能技術可以根據(jù)用戶提示產(chǎn)生流暢且令人信服的答案,但生成的內(nèi)容實際上可能并不準確。學生需要具備基本的知識和技能來判斷信息的準確性和適當性,因此知識豐富的課程體系就顯得尤為重要。教育部門需要確保評估系統(tǒng)能夠公平而準確地評估被測試者的知識和技能。
英國資格認證聯(lián)合委員會已經(jīng)為教師和考試中心發(fā)布了在生成式人工智能背景下保護資格認證誠信的指南。該指南包括如何避免人工智能濫用的信息以及對教師和考試中心的要求,幫助發(fā)現(xiàn)和預防不當行為。
教育部門要盡量減少生成式人工智能的消極影響。
生成式人工智能能夠存儲并從輸入的數(shù)據(jù)中學習。為確保個人隱私,應避免將個人和敏感數(shù)據(jù)輸入生成式人工智能工具。
教育部門應該意識到,生成式人工智能可以創(chuàng)建各種看似可信的內(nèi)容,包括各類詐騙信息。值得注意的是,由于人們與生成式人工智能的交互方式不同,因此由人工智能輸出的內(nèi)容看起來更權威和更可信。
因此,教育部門必須遵循教育部發(fā)布的網(wǎng)絡標準,有效管理網(wǎng)絡風險。教育機構(gòu)還必須確保兒童和年輕人避免通過生成式人工智能訪問或生成有害或不當內(nèi)容。英國教育部發(fā)布的《保護兒童在教育中的安全》等指南已經(jīng)為中小學和大學提供了如何保護學生網(wǎng)絡安全的相關信息,大中小學可以參考網(wǎng)絡過濾和監(jiān)控標準,以確保網(wǎng)絡防護系統(tǒng)精準到位。
(作者單位系北京教育科學研究院)
《中國教育報》2023年12月07日第9版
工信部備案號:京ICP備05071141號
互聯(lián)網(wǎng)新聞信息服務許可證 10120170024
中國教育報刊社主辦 中國教育新聞網(wǎng)版權所有,未經(jīng)書面授權禁止下載使用
Copyright@2000-2022 www.solnowat.com All Rights Reserved.