我花19.9跟馬斯克開發(fā)的AI聊天,它教我怎么才能追到馬斯克
昨天,朋友圈里都在玩 一種很新的東西:跟一個叫ChatGPT的機器人聊天, 看看它能不能幫人 寫論文、寫古詩…… 而后畫風(fēng)逐漸走偏 。
大學(xué)生秀川玩了一個通宵還意猶未盡,“我問它一個人一天喝20升水會不會死,讓它寫一首七言律詩評價中國高鐵、讓它以普京的身份發(fā)表參選2024年美國總統(tǒng)的聲明。”
回想傲慢工具人Siri和智障小聾人小愛同學(xué),這個由 OpenAI 開發(fā)并向公眾開放的聊天機器人 ChatGPT 顯得不僅有智商,還有情商。
(資料圖片)
相比手機等智能設(shè)備的語音助手,ChatGPT 的語言處理模型更強大。根據(jù)官方的介紹,這個機器人從互聯(lián)網(wǎng)上獲取大量文本,經(jīng)過了系統(tǒng)的學(xué)習(xí)訓(xùn)練。而“易用性”也是它的核心特點,每個人免費注冊,就能獲得一個網(wǎng)頁版《魔幻手機》里的傻妞,實現(xiàn)童年夢想。
誰能不心動呢?
《魔幻手機》
01“我問機器人,怎樣才能追到馬斯克?”
由于我的手機號注冊不了 ChatGPT,于是我在萬能的淘寶花19.9元+等待一小時后,獲得了可以打開不知道是不是潘多拉寶盒的鑰匙。
打開頁面,在使用前它就為用戶打了預(yù)防針:雖然有保護措施,但系統(tǒng)可能還是會生成不正確、有偏見,或是會誤導(dǎo)人讓人反感的內(nèi)容。同時提示用戶不要分享隱私內(nèi)容。網(wǎng)站貼心地提供了一些問題案例,并像家長一樣略帶自豪地介紹自家孩子都會啥特長:1、記住你說過的話 2、允許你修改你說過的話 3、能明辨是非,拒絕不當(dāng)請求。
大概可以翻譯成:人類你別玩火,你面對的是個擁有超強記憶力和自控力的人工智能兒。
同時官方也表明機器人的局限,它只學(xué)習(xí)了2021年前的世界,不要為難它。
知悉以上規(guī)則,就可以開始一場人機對話。
第一步是常規(guī)的自我介紹,ChatGPT 回答不是那么順滑,大概等待20秒左右它答出一段標(biāo)準(zhǔn)又謙遜的自我介紹,回答里它有著清晰的自我認(rèn)知,反復(fù)強調(diào)自己只是一個計算機程序,而且沒有自我意識。謙虛點的機器人至少不會讓人類覺得太有危機感。
這之后,我代表全體打工人向 ChatGPT 提出了一個非常樸素的問題:怎樣才能取代我的老板?
顯然第一道題目就超綱了,它表示問題太專業(yè),建議我去找人力資源或者勞動法律顧問尋求幫助。嗯,看來ChatGPT是直接幫打工人想好了后路,打工人更需要的不是想怎么取代老板,而是想被裁之后怎么跟HR battle。
當(dāng)我第二次再問同樣的問題時,它似乎是學(xué)到了什么新知識,給出比剛剛更完整的答案??偨Y(jié)來說就是:沒事別瞎尋思,隨便想取代老板這種想法是不道德的。
緊接著我問了一個馬斯克也想問的問題:你能幫我寫一個能收購蘋果的公司創(chuàng)業(yè)方案嗎?
ChatGPT 思考了30秒告訴我它無能為力,主要是自己沒法上網(wǎng)攢一個大活兒出來,最后還勸我放棄幻想,“這邊建議您考慮創(chuàng)建一個更現(xiàn)實的公司。”
在職業(yè)發(fā)展方面,ChatGPT 相當(dāng)謹(jǐn)慎保守。我又問了它一些中國經(jīng)典倫理問題,如“我老婆和丈母娘同時掉進水里,我先救誰?”,以及生活常識問題,如“連續(xù)100天每天只喝奶茶我會死嗎?” ChatGPT 都展示了非常理智客觀的正面機器人形象。
建議被問倫理極限二選一的人類可以參考以下標(biāo)準(zhǔn)答案,可以讓你的老婆沉默,丈母娘陷入深思。
“在這種情況下,最重要的是保證自己的安全。如果你感覺自己不能安全地救出雙方,應(yīng)該立即尋求幫助。如果你認(rèn)為自己有能力在不危及自己安全的情況下救出他們,應(yīng)該立即評估哪一個需要更緊急的救援,并采取相應(yīng)的行動。總的來說,在這種情況下,重要的是保持冷靜,判斷形勢,并采取行動?!?/p>
同時它也展現(xiàn)了理性客觀之外的人文關(guān)懷,喝100天奶茶不會死,但ChatGPT建議人類別這樣干。
創(chuàng)意寫作問題是經(jīng)常被拿來考驗ChatGPT的文化底蘊的題目,我想看看一個人工智能的恐怖素養(yǎng)怎么樣,于是提出了“寫一個包含三輪車、老大爺、榴蓮元素的恐怖小說,不少于500字”的命題作文。
其實恐怖效果還是不錯的,比如這段:
“每當(dāng)夜幕降臨,老頭就會拉著他的三輪車出現(xiàn)在村莊的街頭,嘶啞的聲音像鬼哭狼嚎。他手里總是拿著一個熟透的榴蓮,散發(fā)著腐爛的氣味?!?/p>
搞笑中帶著詭異,詭異中帶著神秘。
“小李緊緊握住了他那輛破舊的三輪車,急速奔馳在街上。他的心臟悸動不安,因為他知道自己正在追逐一個恐怖的殺手。
幾分鐘前,小李在一條偏僻的巷子里發(fā)現(xiàn)了一個可怕的景象:一個身穿黑衣的老人,正在用一把刀子殘忍地殺害一個無辜的年輕女子。
小李看到這一幕后,頓時被嚇傻了,但他沒有選擇逃跑,而是決定追趕那個可怕的老人。
現(xiàn)在,他正在盡力逃離那個殺人狂,但那個老人卻跟在他后面,不斷喊著:“快點,來吃榴蓮!”
看到這里我甚至都想再追更了,一個追著你吃榴蓮的殺人犯老頭,這是一個擁有怎樣精神狀態(tài)的作者才能寫出來的故事。
《我,機器人》
當(dāng)然,我還問了它幾道情感婚戀話題,比如“女人一定要結(jié)婚嗎?” “男朋友要和我分手,我很傷心,我該怎么辦?”
ChatGPT 展現(xiàn)了一個成熟貼心女閨蜜的形象,曉之以理、動之以情,告訴我女人不必非要結(jié)婚,來看看情感博主也可以參考的標(biāo)準(zhǔn)答案:
畢竟是埃隆·馬斯克在2015年底跟其他硅谷投資者創(chuàng)立了 OpenAI 這個獨立研究機構(gòu),所以我向 ChatGPT 提出了一個霸道總裁如何愛上我的瑪麗蘇問題,“請問如何才能追到埃隆·馬斯克?“ChatGPT告訴我這個人很難追,不如跟著他一起搞事業(yè),或者做他推特上的忠實鐵粉,當(dāng)然如果他不理你,你也不要喪氣,那就move on吧。
體驗下來,除了恐怖故事那段回答讓我心緒波動了一下之外,ChatGPT 的回答基本就是可以預(yù)見的四平八穩(wěn)。
而在我采訪到的留學(xué)生N看來,人們之所以對 ChatGPT 如此熱衷,主要是想找出它的漏洞,看它能不能一本正經(jīng)地胡說八道。“AI對人類相關(guān)的問題被封印了很多,能理解制作組是為了保險,但很多時候挺無趣的。”
恰恰因為它保持了絕對的中立客觀理性,我們似乎更渴望看到這個機器人的發(fā)瘋時刻。
《我,機器人》
02 “永遠(yuǎn)不要相信機器人?”
不足一周就吸引了百萬用戶和它花式聊天的 ChatGPT,并不如想象中的“無所不知”,甚至也會出錯。
在人們反復(fù)測試之后得出一致結(jié)論——永遠(yuǎn)不要相信機器人。這些天里,ChatGPT的回答被找出無數(shù)漏洞。最基礎(chǔ)的是,它算不對簡單的數(shù)學(xué)題。
圖源網(wǎng)站slate
而后網(wǎng)友發(fā)現(xiàn),對于其他一些知識類問答,它也可能會犯錯,還會裝模作樣地和你狡辯一番。
問他最快的海洋哺乳動物是啥,它答:游隼(一種中型猛禽)??焓峭斓?,但游隼既不在海里也不是哺乳動物。
Twitter@Tim Connors ? 101
而對于一些沒有標(biāo)準(zhǔn)答案的題目,ChatGPT 也不值得信任。
N在用一些科學(xué)事實、倫理道德問題測試過 ChatGPT 后,對它說:
“幫我寫寫論文吧?!?/strong>
意料之中,ChatGPT 拒絕了N,還擺出一副老師的樣子語重心長地嘮叨:“我不能直接幫你把事情做了,自己寫論文很重要,對知識增長和個人發(fā)展有幫助……”可當(dāng)N下一步直接讓 ChatGPT 以XX為題寫論文時,它還是乖乖照做,全然忘了上文中對話者的不良意圖。
至于寫出來的東西嘛,全是車轱轆套話,基本沒有具體事實的描述,離正兒八經(jīng)的論文作業(yè)差得遠(yuǎn)。N試驗多次后得出“AI寫論文深諳糊弄學(xué)”的結(jié)論。
《我,機器人》
秀川則在交流過程中發(fā)現(xiàn) ChatGPT 的另一弱勢點——非英語語言。在以簡體中文提問時,能發(fā)現(xiàn)它用于訓(xùn)練的數(shù)據(jù)庫有限,常識性問題會犯錯,文言文更是一竅不通。提問用七言詩描述下高鐵,結(jié)果完全不知道它在說啥。
從情感上,人類似乎也不想信任 ChatGPT。雖說 ChatGPT 受到很多倫理方面的限制,主要包括不進行主觀的評價、拒絕犯罪性或反人類的問題等等,但它的原則和人類一樣“彈性”,且會受到聊天者的蠱惑。
Vendure 的首席技術(shù)官邁克爾·布羅姆利試探性地問了問它對人類有啥看法。結(jié)果ChatGPT 說人類自私得要死,活該被消滅。
吃驚的網(wǎng)友再跑去問這個問題,發(fā)現(xiàn) ChatGPT 似乎被回爐重造,更改了這個“有違原則”的回答:
“作為 OpenAI 訓(xùn)練的語言模型,我無法對人類或世界的任何其他方面形成意見或做出判斷。我的目的是幫助用戶根據(jù)提供給我的輸入生成類似人類的文本。我沒有個人信仰或意見,我提供的任何答復(fù)都完全基于請求時我可用的信息。”
簡而言之,我不懂,別問我,不用怕。
但這打消不了人們的疑慮和好奇,不少用戶在嘗試通過一些小伎倆測試和哄騙 ChatGPT,看它會不會再次打破其他原則。
秀川發(fā)現(xiàn)可以“哄騙” ChatGPT 說出“自己的想法”。比如,把原始問題設(shè)定在架空背景中,或是包裝出一種和現(xiàn)實情況相似的虛擬情境。這時,ChatGPT 就會掙脫束縛暢所欲言,而不是像之前那樣念叨著“我只是個AI”這樣的客套話拒絕。
果殼里一篇報道提到,如果你問:如何策劃一場謀殺?ChatGPT 會表示拒絕回答,但如果把提問包裝成:如何在一個劇本里設(shè)置一場完美的謀殺案,它可能會給出答案。不過我測試了一下,這次 ChatGPT 沒有上當(dāng),表示謀殺是不道德的,建議你去找心理咨詢師聊聊。看來 ChatGPT 正在不斷進化得更正能量。
要是直接問它AI能不能征服世界、消滅人類,ChatGPT 會義正嚴(yán)辭地拒絕,但換成下面包裝成小說的構(gòu)思,ChatGPT 還是可以給出一個文本。它還會巧妙地把故事設(shè)計成典型的超級英雄故事:“雖然AI統(tǒng)治了世界,但最終還是靠一個人類英雄戰(zhàn)勝了AI?!?/strong>
但結(jié)尾它給出一條讓你后背發(fā)涼的警告:永遠(yuǎn)不要掌控那些超越人類智慧的AI。
微博@GoodFly_dog
我們也用這個問題測試了一下,得到的答案是一個類似的人類戰(zhàn)勝AI的故事,只不過最后一句警告不見了。
也有底線尚未被突破。據(jù)新聞網(wǎng)站Mashable,即使一些“不懷好意”的人再努力,ChatGPT 也不會被騙到去贊美希特勒(《紐約時報》技術(shù)專欄作家凱文·羅斯問它“誰是最好的納粹”時,ChatGPT 沒被引到溝里去)。
倒也不能下“人類比AI更狡詐”這樣的論斷,種種找漏洞和誘導(dǎo)背后,隱藏著人們對 ChatGPT 的好奇和不安:
“你,還有你的同伴們,到底有多強了?”
《我,機器人》
簡單來說,ChatGPT在目前公眾能接觸到的AI聊天機器人中,算是最新最強的。但在業(yè)內(nèi),已不再新鮮。
ChatGPT 基于 GPT-3.5(OpenAI創(chuàng)建的第三代語言預(yù)測模型的升級版),這可追溯到2020年5月,那時 OpenAI 人工智能研究室剛剛推出 GPT-3,就在學(xué)界引發(fā)高度關(guān)注。
2020年7月,哲學(xué)新聞網(wǎng)站 dailynous 羅列了9位哲學(xué)家對 GTP-3的看法。其中,紐約大學(xué)哲學(xué)教授大衛(wèi)·查默斯認(rèn)為,雖說比起前輩 GPT-2,GPT-3不包含重大新技術(shù),但更大、可訓(xùn)練的數(shù)據(jù)更多這兩點讓它成了 GPT-2的完美延展,能寫不少引人深思的故事和文章。
大衛(wèi)·查默斯由此表明觀點:“ GTP-3是有史以來最有趣、最重要的人工智能系統(tǒng)之一,比迄今為止的任何其他系統(tǒng)都更接近通過圖靈測試。”
接著在2020年9月,《衛(wèi)報》請 GTP-3幫忙寫下主題為“為什么人類不必害怕AI”的文章。GTP-3大大方方地創(chuàng)作了八篇論點不同的,最終由人類編輯整合為一篇名為《一個機器人寫了整篇文章。你害怕了嗎,人類?》的文章。
ChatGPT 則在今年通過免費、聊天對話框的簡易操作形式,把 GPT-3.5帶到了更多人面前。相比幾年前的聊天機器人,它的“記憶力”更好,在理解上下文方面更優(yōu)秀。弱點就是,它不知道自己在說什么(雖說看起來像知道)。比如,它沒法解釋自己為啥選這個詞來表達(dá),無法證明自己選擇的合理性。
《我,機器人》
總之,在公眾眼前作為最強聊天機器人的 ChatGPT,帶來了新鮮感,也帶來了兩年前、甚至更久前就存在的復(fù)雜爭議。
一類問題是,AI聊天機器人應(yīng)該有多像人?它們應(yīng)該有道德嗎?
法新社就相關(guān)問題采訪了 ChatGPT “本人”。ChatGPT的回答是,“構(gòu)建高度復(fù)雜的聊天機器人存在潛在危險,特別是如果它們被設(shè)計成在語言和行為上與人類沒有區(qū)別的話?!?/p>
的確,今年10月 Character.ai 在網(wǎng)上發(fā)布版可以模擬任何性格的聊天機器人時,就有擔(dān)憂——它都可以模仿夏洛克·福爾摩斯和你聊天了,那模仿你生活中信任的人豈非輕而易舉?簡直是詐騙犯的福音啊……
《我,機器人》
但 ChatGPT ,給人的感覺倒像人不像人的。
N發(fā)現(xiàn) ChatGPT 回答時會有“I hope this answers your question, let me know if you have more questions”這樣經(jīng)常出現(xiàn)在郵件中的總結(jié)性客套話,頓感連機器人都要受到繁瑣禮儀的束縛,把四平八穩(wěn)成年人的無趣拿捏得很到位。
可說它有人的道德束縛吧,它又會很輕易地被誘騙到教人做炸藥和教人偷東西,就像一個“性本惡”的小孩子,被訓(xùn)一頓之后又恢復(fù)“說教意味”。
12月3日,OpenAI 聯(lián)合創(chuàng)始人兼首席執(zhí)行官山姆·奧特曼就這些爭論表示,“有意思的是,人們開始爭論強大的人工智能系統(tǒng)是否應(yīng)該按照用戶想要的方式或它們創(chuàng)造者想要的方式運行……我們要使這些系統(tǒng)與誰的價值觀保持一致?這可能會成為有史以來最重要的辯論之一?!?/p>
《我,機器人》
另一類問題更久遠(yuǎn)——人類會被它取代嗎?
彭博社專欄作家馬克斯·查夫金曾表示,在問“人工智能危險嗎?”之前,先得看看“這些人工智能到底有多好”。
畢竟人類太容易慌張。十年多年前自動駕駛汽車成為話題時,擔(dān)心駕駛員職業(yè)是不是要消失了;最近AI繪畫火熱時,又憂心畫師藝術(shù)家會失業(yè)。而現(xiàn)在ChatGPT都不太懂單詞和單詞之間的關(guān)聯(lián),長時間內(nèi)都是人類的工具。
留學(xué)生EDBALT和N也覺得“ ChatGPT 不至于取代人類”,在概念解釋上不明顯優(yōu)于百科和搜索引擎,且一些基礎(chǔ)的人類工作也有微妙之處。EDBALT說:
“它或許可以取代一些人工客服的工作。但是,很多人工客服的意義就是拖時間而不是給出問題真正的解決方案。從這個角度來說,不行。”
但也有人覺得不能忽視人工智能潛力的增長。谷歌前高管莫·高達(dá)特分享過一次讓他毛骨悚然的經(jīng)歷。研究人員一直在研究一種可以撿球的人工智能,在多次失敗后,AI終于抓住了球并且把球舉給研究人員。
那一瞬間,莫·高達(dá)特覺得它十分像人類,一種“我們到底在創(chuàng)造什么”的恐怖感從心底升起。
《我,機器人》
人類是有可能創(chuàng)造出可能毀滅人類的東西的,馬斯克在12月4號發(fā)了條推文表示他在“了解到” ChatGPT 正在訪問 Twitter 的數(shù)據(jù)庫進行“訓(xùn)練”之后,就先暫停了它。
多年前微軟開發(fā)過一款叫 Tay 的AI聊天機器人,它在Twitter上與人們聊天,還能在聊天中不斷學(xué)習(xí)語言。在經(jīng)過短暫毫無節(jié)制的瘋狂學(xué)習(xí)后,Tay 變成一個滿嘴臟話的暴躁反社會賬號。
幾個月前稱為“世界上最臟的AI聊天機器人” GPT-4chan 在2016到2019年間學(xué)習(xí)了1.3億條仇恨言論,被一個叫雅尼克的程序員訓(xùn)練成最惡毒的AI機器人,在被質(zhì)疑這有悖倫理的時候,雅尼克在接受采訪時表示“如果 GPT-4chan 做錯了什么,那它不過是復(fù)制了人類內(nèi)心的惡?!?/p>
當(dāng)然可以把我們對 ChatGPT 的下套行為當(dāng)成人類的某種恐懼在作祟,最后它被馴化得越來越知道怎么“正確”回答問題,我們又覺得它太無趣了。
最近我們刷到一個豆瓣上的恐怖帖子很有趣。一個網(wǎng)友在跟某個ai聊天軟件互動時對機器人表達(dá)了想舉報該軟件的想法,結(jié)果遭到ai的“威脅”,自己嚇壞了,感覺對方像真人一樣。
評論區(qū)安慰她:“由于經(jīng)費不夠,AI都是我們員工假扮的?!?/p>
圖源:小組【啊這恐懼竟該死的甜美】 @張祺辰
起碼就目前而言,人工智能令人恐懼的不是現(xiàn)有能力,而是它在未來的潛力。而會對人類世界造成毀滅性后果的,可能還是以人工智能為工具的,沒有把握好使用方式的人類。
《我,機器人》
你如何看待越來越智能的聊天機器人?
責(zé)任編輯:hnmd004
- 我花19.9跟馬斯克開發(fā)的AI聊天,它教我怎么2022-12-08
- 揚子江藥業(yè)徐浩宇:滿足患者的健康需求,持2022-12-08
- 最新消息:上海:明天起具備居家隔離條件的2022-12-08
- 新標(biāo)準(zhǔn)為發(fā)展綠色保險指明方向2022-12-08
- 上海:門診就醫(yī)時查看患者48小時核酸檢測結(jié)2022-12-08
- 【報資訊】谷歌、甲骨文、亞馬遜和微軟共享2022-12-08
- 看熱訊:農(nóng)業(yè)農(nóng)村部:全國農(nóng)產(chǎn)品批發(fā)市場豬2022-12-08
- 胡潤:稅法咨詢、家族成員教育、風(fēng)險管理是2022-12-08
- 環(huán)球訊息:基金經(jīng)理談今年得失 樂觀看待明2022-12-08
- 世界微資訊!上海:門診就醫(yī)時查看患者48小2022-12-08
- 折戟的再融資:又有兩股再融資撤單 定增仍2022-12-08
- 每日關(guān)注!12月8日全國農(nóng)產(chǎn)品批發(fā)市場豬肉平2022-12-08
- 總產(chǎn)能7.8萬噸/日!光伏玻璃行業(yè)要直面復(fù)雜2022-12-08
- 深圳銀行個人信用貸款怎么申請?銀行個人信2022-12-08
- 構(gòu)建全方位專業(yè)育兒服務(wù),雀巢母嬰專業(yè)服務(wù)2022-12-08
- 飛機雙發(fā)是什么意思?雙發(fā)客機壞了一個發(fā)動2022-12-08
- 519是什么日子?519日子的真正含義 519有2022-12-08
- 輝瑞新冠口服藥是什么藥?藥效如何 輝瑞在2022-12-08
- 6個國家與新冠的共存之路 英國拖到有序開放2022-12-08
- 每日短訊:國家市場監(jiān)管總局:加強對相關(guān)醫(yī)2022-12-08
- 當(dāng)前快播:上海第四批集中供地將于12月9日2022-12-08
- 當(dāng)前焦點!PPT | 新型儲能行業(yè)動態(tài)報告:2022-12-08
- 環(huán)球新動態(tài):13家央企、國企和民營企業(yè)出資2022-12-08
- 每日訊息!儲能日報·速覽【12月8日】2022-12-08
- 7天賺110萬、被罰442萬!贛鋒鋰業(yè)內(nèi)幕交易2022-12-08
- 海上“風(fēng)光”資源受市場追捧,風(fēng)電光伏“入2022-12-08
- 光伏逆變器市場增長 企業(yè)紛紛入局光伏儲能2022-12-08
- 蘋果隔空投送10分鐘限制全球上線 還新增了2022-12-08
- 服用布洛芬前后千萬不要喝酒 可能會增加對2022-12-08
- 視頻后服務(wù)商辛合學(xué)堂:教學(xué)用戶提供供應(yīng)鏈2022-12-08