歡迎進入德陽社科網! 設為首頁   加入收藏   
您的當前位置: 首頁 - 信息瀏覽

ChatGPT改變人類知識生產方式

文章來源:中國社會科學網 發布時間:2023/2/22 

  ChatGPT由美國人工智能研究公司OpenAI開發,一經推出便受到全球廣泛關注,并引發廣泛的思考與討論。ChatGPT是一種大型語言模型(LLM),能夠在數據基礎上進行自主學習,并智能生成復雜的文字。然而,目前ChatGPT和其他大型語言模型還無法確保生成文本的準確性,甚至可能扭曲科學事實、傳播錯誤信息。不過,可以預見的是,這種人工智能生成內容(AIGC)類的人工智能技術將對知識的定義、知識的生產方式以及技術人員的地位產生巨大影響。記者就這些議題采訪了有關學者。

   ChatGPT跨越人工智能技術新門檻 

  英國愛丁堡龍比亞大學學習與教學提升系助理教授薩姆·伊林沃思(Sam Illingworth)在接受記者采訪時表示,從目前來看,很難說ChatGPT會帶來什么樣的影響,這完全取決于人們對它的使用方式。除了教會人們如何使用ChatGPT以更有效地開展工作之外,我們還應該審慎考慮這項技術的局限性,確保在合乎倫理的情況下使用該技術。在伊林沃思看來,ChatGPT是一種弱人工智能,是一種不能實現真正的推理(Reasoning)和解決問題(Problem solving)的智能機器,未來此類技術將繼續作為人們生活和工作的重要組成部分。當然,人類不必對此反應過激,因為弱人工智能只是更多地協助而非“取代我們的工作”。

  美國密歇根大學信息學院教授富山健太郎(Kentaro Toyama)認為,以ChatGPT為代表的一系列人工智能技術具有兩面性,從積極的層面看,人類的大部分工作可能會由機器完成;從消極的層面看,ChatGPT技術可能造成多重危害。具體來說,將會放大各種欺詐行為的影響,造成更多人口失業,擾亂日常的人際關系。富山健太郎建議,強大的技術需要嚴格的監管,應當放慢創新的腳步,留出時間來思考和制定適當的監管政策。

  技術人員正取代專家創造權威知識 

  加拿大布魯克大學政治科學助理教授布萊恩·哈格特(Blayne Haggart)表示,幾個世紀以來,人們都將知識等同于科學,將科學作為一種知識形式,賦予理性和理論以優勢地位。理論是人們關于世界如何運作的一系列想法,構成了塑造人類行為方式的環境。而科學就是要在現實世界中測試和完善這些想法,其目的是理解世界。理論總是受到有限的人類感知的影響,難以克服偏見和極端局限性。但通過批判性地審視理論與方法,人類也有希望增加對世界的理解。然而,近年來,隨著數字化的發展,與數據收集和處理相關的專業知識幾乎代表了各行各業的最前沿技術。ChatGPT延續了這一趨勢,進一步證明了一種觀念的興起:如果能夠收集足夠的數據并且擁有足夠強大的計算能力,就可以“創造”權威知識。在這種觀念之下,技術人員而非科學家被視為知識最淵博的人,知識的權威不再屬于各領域的專家,而是屬于那些能夠創建和操縱數字數據的人。簡言之,知識本身正在被重新定義。

  在哈格特看來,與科學思維及其對理論構建和特定情境知識的強調相反,ChatGPT和背后的思維不將知識等同于科學理解,而是等同于相關性。它反映了技術人員的想法,而不是科學家的想法。通過相關性獲得知識,讓大數據和人工智能技術存在一種潛在傾向:只要有足夠的數據和足夠的計算能力,計算機就可以識別各種相關性,這個過程不需要任何理論。與所有的機器學習模型一樣,ChatGPT將詞語、句子、段落和文本分解為數據,旨在尋找在特定情況下同時出現的詞匯和句子的模式。該模型具有適應性并且可以產生復雜的輸出,是技術與資金的勝利。不過,從本質上講,ChatGPT仍然只是模式識別技術,就是根據樣本的特征,用計算的方法將樣本劃分到一定的類別中去。

  真正的威脅在于數據主義 

  荷蘭烏特勒支大學媒體與數字社會教授何塞·范·迪克(José van Dijck)把那些相信數據可以說明一切的想法稱為數據主義(dataism)。企業、學者和政府都深信,數據為人們提供了一種客觀、中立甚至“革命性”的方式,通過這種方式可以更好地獲取利潤、了解社會以及開展國家事務。迪克表示,數據從來都不是獨立存在的,關于數據的一切,如數據的選擇、收集、存儲和使用,都受到人類有限的感知和能力以及數據收集和使用環境的影響。由人類生成的數據有著天然的局限性,這也意味著計算機展示出的科學理解能力是一種錯覺。在科學思維中,一項知識的合法性取決于科學家是否按照約定的方法得出結論并推動理論的發展,也即創造知識的過程。相比之下,機器學習的過程非常復雜,以至于對那些操作機器學習的人來說,其內部結構也常常是個謎。

  機器學習本身并不是問題所在,數據主義才是真正的威脅。伊林沃思表示,數據主義引導下的觀點非常危險。數據生成和收集的不準確,已經導致了許多丑聞。在更強大的人工智能出現之前,數據收集和分析的方式總會摻雜人類互動的因素,這也意味著存在數據錯誤和誤用的可能性。ChatGPT的出現及時提醒人們,需要更加批判性地思考數據的收集、分析和使用過程,不應該把任何數據集中產生的內容當作全部事實。

  哈格特認為,ChatGPT通過搜索各種資料將其轉化為數據,并在沒有創作者明確知情同意的情況下使用這些數據。像ChatGPT這樣的大型語言模型會產生兩個問題。第一,非專家類人群難以對產出內容進行評估。第二,高度信任相關性。當ChatGPT依靠相關性來生產知識時,最終會得到傳統智慧和流行意見,但遠遠達不到準確性。

   辨別控制知識生產的力量 

  當然,科學不會在數據主義的世界中消失,但會讓知識的層次結構發生改變。哈格特表示,我們要研究哪些群體被視為重要知識的創造者和擁有者。不同形式的知識使不同的群體處于相應位置,而不同類型的知識工作者,如科學家、技術人員,將以不同的方式定義和使用知識。在數據世界中,掌握知識的力量在于那些可以調配資源收集與部署數據和計算能力并創建機器學習所需算法的個人和組織。他們的權威來自數據主義者的信念,即數據及其收集過程是中立的,他們創造的機器將產生權威且有用的知識,ChatGPT創造知識的方法反映了數據主義的知識觀。

  ChatGPT簡潔的界面讓人產生錯覺,它輸出的內容似乎是憑空出現的,由一臺中立的機器提供。但是算法、計算機程序和機器學習過程均是由人們明確設計的,設計知識生產的力量是一種終極力量。美國哈佛大學伯克曼·克萊因互聯網與社會中心研究員瑪麗·L. 格雷(Mary L. Gray)提醒說,所謂的人工智能系統總是涉及幕后工作者,他們對內容或數據評估做出決策,這是一種內部視角。而從外部視角來看,由于缺乏科學驗證過程,對技術的依賴使人們成為人工智能的被動接受者,對于這種知識形式感到敬畏而非理解。事實上,這剝奪了個人理解、質疑和挑戰的能力。

  在無法評估知識生產過程準確性的情況下,唯一的選擇就是評估輸出內容。人們要想做到這一點,就需要一種超越相關性的知識。哈格特認為,數據主義的危險在于自然地認定算法決定一切,算法程序可以產生合理的知識。然而,事實并非如此。2016年微軟曾推出人工智能聊天機器人Tay,僅上線一天就因發表種族歧視言論被下線。ChatGPT的輸出完全取決于團隊“訓練師”的選擇,這些“訓練師”決定哪些數據和數據集是重要的,并通過設計算法以遵循自己決定的相關規則。簡言之,誰控制了聊天機器人的設計過程,誰就能塑造最終的產品。

  讓機器學習為公眾服務 

  ChatGPT不是僅僅將寫作或科研過程自動化,更多的是創造一種全新的知識形式,賦予相關性以合法性,并且將相關性的真實性評估安排在幕后,嵌入編程決策中。這種方法將科學理解置于次要地位,科學充其量只能起到一種評估作用。這些根深蒂固的利益,對于確保機器學習的發展方向符合公眾利益構成了重大障礙。哈格特建議,要警惕數據主義,養成讓機器學習為人們服務的習慣。

  首先,由于機器學習過程存在復雜性和不透明性,所有環節都必須安排人作為直接負責任的決策者。無論是決策者還是受機器學習影響的個人,都必須能夠解釋和理解自動化過程中做出的任何決策。機器學習只能作為補充,而不是取代人類的功能。

  其次,在創建大型數據集時,數據權利討論需要超越對個人身份數據的關注。藝術家、作家和普通人的各類數據權利均應受到尊重,他們的一系列作品和表達構成了大型語言模型的基礎。ChatGPT的出現將會對這部分人產生直接的影響。

  最后,必須防止像OpenAI這樣的公司將公眾當作實驗對象,來進行有效的營銷活動。當前,一連串與ChatGPT相關的文章在各類平臺涌現,即使是學界專家也在努力理解ChatGPT技術的內涵,F在十分有必要對這些公司進行關注,避免出現“作惡”行為。

  幾個世紀以來,人們一直將科學視為一種知識形成與理性思考的融合,堅持知識生產和驗證過程的嚴謹性與透明性。然而,當前數據主義的蔓延似乎打破了長久以來的知識生產方式與科學理念,人們是否有意愿保持對科學的承諾、讓技術為科學理解服務,這是圍繞人工智能辯論的核心問題。ChatGPT無法回答這一問題,但人們對ChatGPT的態度就隱藏著答案。

四川省德陽市社會科學界聯合會 CopyRight @ 2012
電話:0838-2227038 E-MAIL:dysskl@163.com 郵編:618000 監督舉報電話:0838-2237606
聯系地址:德陽市廬山南路一段166號 蜀ICP備13001110號-1
天天日天天干天天日_免费a片在线网站大全www_欧美三级视频网站_亚洲美女五月天综合