火爆背后,ChatGPT打開了人工智能的“潘多拉魔盒” |
發(fā)布時(shí)間:2023-04-21 文章來源:本站 瀏覽次數(shù):2353 |
ChatGPT的爆火,生動詮釋了什么是“人紅對錯(cuò)多”,展開至今現(xiàn)已招引了許多互聯(lián)網(wǎng)大佬的重視和評論。 毋庸置疑,對于一款具有分水嶺含義的產(chǎn)品而言,不少企業(yè)家都認(rèn)同大型言語模型的廣泛應(yīng)用。微軟創(chuàng)始人比爾蓋茨曾表明:“ChatGPT的誕生一點(diǎn)點(diǎn)不亞于個(gè)人電腦的誕生!庇ミ_(dá)創(chuàng)始人黃仁勛也表明:“ChatGPT只是起點(diǎn),咱們正處于AI的iPhone時(shí)間。”谷歌前AI團(tuán)隊(duì)成員、deeplearning.ai創(chuàng)始人吳恩達(dá)曾在推特上宣布言辭,以為ChatGPT等大型言語模型是“人工智能領(lǐng)域?yàn)榧尤诵牡倪M(jìn)展之一! 但也有部分企業(yè)家以為,ChatGPT們的火爆背后,隱憂猶存。 人工智能需求強(qiáng)監(jiān)管嗎? 咱們在人工智能的展開方面,是否步伐太快? 3月末,生命未來研討所(Future of Life)發(fā)布了一封公開信,包含馬斯克在內(nèi)的上千名人工智能研討人員和技能高管進(jìn)行了簽名,呼吁所有人工智能實(shí)驗(yàn)室暫停比GPT-4更強(qiáng)大的人工智能系統(tǒng)的練習(xí),暫停時(shí)間至少為6個(gè)月。 對此,國內(nèi)的相關(guān)企業(yè)家也對此示警:劉慈欣曾在一次采訪中表明:“ChatGPT等大型言語模型的出現(xiàn)將徹底改變?nèi)祟惖拈営[和寫作方法,一起也會帶來一些新的品德和道德問題!敝茗櫟t也曾就相關(guān)大型言語模型的安全性問題給予提醒:“在運(yùn)用公開GPT時(shí)必定要注意安全問題。大型企業(yè)在用 GPT 時(shí)不只是搜索,還會給它喂許多數(shù)據(jù),會把許多上下文的條件布景告訴它,這就意味著許多信息的隱私或許會被走漏。” 毋庸置疑,ChatGPT這樣的產(chǎn)品是人工智能工業(yè)展開的里程碑。但即使是火爆如ChatGPT,也面臨著至暗時(shí)間的來臨。 不久前,以色列網(wǎng)絡(luò)安全公司Team8的新陳述顯示,運(yùn)用ChatGPT等生成式人工智能的企業(yè)或許會因而走漏客戶信息和商業(yè)秘要。該陳述稱,新型人工智能談天機(jī)器人和協(xié)作工具的廣泛普及,或許會令一些公司面臨數(shù)據(jù)走漏和法令危險(xiǎn)。他們憂慮黑客或許會運(yùn)用談天機(jī)器人獲取靈敏的企業(yè)信息或?qū)ζ髽I(yè)發(fā)動進(jìn)犯。此外,現(xiàn)在投喂給談天機(jī)器人的秘要信息未來也有或許會被人工智能公司運(yùn)用。 除此之外,各國政府對于ChatGPT的態(tài)度也開端變得愈加鎮(zhèn)定。 美國聯(lián)邦貿(mào)易委員會(FTC)也表明將要點(diǎn)重視亂用人工智能技能違反反歧視法或存在詐騙行為的公司。意大利個(gè)人數(shù)據(jù)維護(hù)局宣布,從即日起制止運(yùn)用談天機(jī)器人ChatGPT,并限制開發(fā)這一平臺的OpenAI公司處理意大運(yùn)用戶信息。英國則發(fā)布了一份文件,主張監(jiān)管機(jī)構(gòu)監(jiān)督人工智能的展開,要點(diǎn)在安全性、透明度和公平性。 AI的運(yùn)用離不開適度監(jiān)管 阿里通義千問、飛書My AI、知乎知海圖 AI、京東言犀、馬斯克的 TruthGPT 都冒出了頭,科技互聯(lián)網(wǎng)行業(yè)一時(shí)之間,好不熱鬧。當(dāng)越來越多的企業(yè)跑步進(jìn)場,大型言語模型也面臨著越來越多的困局。 4月18日,CSDN發(fā)布《2022-2023 我國AIoT開發(fā)者調(diào)查陳述》。陳述中提到:“對AIoT抱持不安全感態(tài)度的開發(fā)者占比6%,也有11%的開發(fā)者憂慮AIoT會加劇失業(yè)問題。”而且,伴隨AIoT技能的廣泛應(yīng)用,也會帶來一系列道德、法令和社會影響,將改變咱們經(jīng)濟(jì)展開路徑和社會生活形態(tài)。因而,在AIoT技能普及之前,需求展開廣泛的社會、文化和道德的討論研討。 現(xiàn)在,ChatGPT作為生成式AI的代表現(xiàn)已迭代到了ChatGPT 4.0。跟著版本的更新迭代,GPT-4的文字輸入限制也得到了提高,到達(dá)了2.5萬字,而且對于非英語語種的支撐也得到了更多的優(yōu)化。這也使得ChatGPT不僅可以愈加準(zhǔn)確地回答問題,還具備更高水平的圖像識別才能。此外,ChatGPT 4.0還可以生成歌詞和構(gòu)思文本,而且完成了風(fēng)格的多樣性。 相關(guān)材料顯示,初代GPT模型的參數(shù)是1.17億個(gè),GPT-2是15億個(gè),GPT-3模型參數(shù)量到達(dá)1750億,是GPT-2的100倍;而GPT-4的真實(shí)參數(shù)在1750億-2800億之間,要點(diǎn)在數(shù)據(jù)處理優(yōu)化上。 但需求注意的是,伴跟著ChatGPT成長而越來越龐大的數(shù)據(jù)和越來越強(qiáng)的算力,也意味著更大的數(shù)據(jù)和隱私危險(xiǎn)。據(jù)報(bào)道,三星在引進(jìn)ChatGPT不到20天里,就現(xiàn)已發(fā)生了三起半導(dǎo)體秘要材料外泄事端,涉及測量材料、產(chǎn)品良品率等內(nèi)容,傳聞已被存入到ChatGPT學(xué)習(xí)材料庫中。大型言語模型的負(fù)面效應(yīng)現(xiàn)已開端展現(xiàn)。 在國內(nèi),相關(guān)政策的擬定現(xiàn)已走在前列。此前,《生成式人工智能服務(wù)管理辦法(征求意見稿)》面向社會征求意見,這意味著,當(dāng)下備受重視的生成式AI工業(yè)將迎來首份監(jiān)管文件。從生成式人工智能服務(wù)商的準(zhǔn)入,到算法設(shè)計(jì)、練習(xí)數(shù)據(jù)挑選、模型、內(nèi)容,以及用戶個(gè)人隱私、商業(yè)秘密等方面提出了相關(guān)要求。其中特別強(qiáng)調(diào)了生成式人工智能產(chǎn)品練習(xí)數(shù)據(jù)及生成內(nèi)容的真實(shí)性、合法性,要求提供者應(yīng)當(dāng)對生成式人工智能產(chǎn)品的預(yù)練習(xí)數(shù)據(jù)、優(yōu)化練習(xí)數(shù)據(jù)來歷的合法性負(fù)責(zé)。 或許,這將是人工智能工業(yè)展開的必由之路:在為人工智能展開擬定結(jié)構(gòu)的一起留足展開空間,讓人工智能得以完成大范圍普及。畢竟,技能自身沒有好壞之分,但“技能不作惡”,才是工業(yè)展開的底子底線。 |
|