“AI教父”本吉奥:人类无法用10年时间解决AI风险和监管问题
▎截(jié)至目前,本吉奥发表了300多篇学术论文,累(lèi)计被(bèi)引用次(cì)数超13.8万次。吴恩达曾表示,本吉奥的许(xǔ)多理(lǐ)论研究对他有很大启发。
钛(tài)媒体App 8月24日消息,被誉为“AI教(jiào)父”的(de)加拿大 计(jì)算机科学家、深度学习技术(shù)先驱、2018年图灵奖(jiǎng)得主(zhǔ)约书亚·本吉奥(Yoshua Bengio)公开表示,随着ChatGPT的推出,AI技术风险(xiǎn)的时间被压缩,不幸的是,我们无法利(lì)用十年的时间解决AI风(fēng)险和政策监管(guǎn)问题,而是更短的时间,因此行业需要马上行动,加快AI安全政策落地。
“制定政(zhèng)策需要花费大量时(shí)间,它需(xū)要解决(jué)多年分歧,像这样(yàng)的立法都需要(yào)数(shù)年时间才能颁布,需要建立一(yī)些流程,需很多年时间才 能真正做好这个工作(zuò),”本吉奥对彭博社表(biǎo)示,他现在担心可能没有太多(duō)时间来(lái)“做好这件事”。而且更糟糕的是,AI风险这不仅是(shì)监管问题,它更是国际条约,大家需要在全(quán)球范围(wéi)内解决这个问题。
据悉,本吉奥出生 于巴黎,成长(zhǎng)于加拿大,现居加(jiā)拿大蒙特利尔,在蒙特利尔大学(University of Montreal)计算机科学与运算系任教(jiào)授。他于1991年获得加拿大麦吉尔大学计算机科学博士学位。本吉奥(ào)的主要研究领域是深度学习和(hé)自然语言处理。
30余年的深度学习研究生涯里,本吉奥发表了300多篇学(xué)术(shù)论文,累(lèi)计被引用次数超13.8万次(cì)。吴(wú)恩达曾表示,本吉奥的许(xǔ)多理论研究(jiū)对他有很(hěn)大启发(fā)。
2018年,他(tā)与“神经网络之父”Geoffrey Hinton和“卷积网络之父”Yann LeCun三人因开拓深度学习技术理论而获得“图灵奖”,他们三位也被(bèi) AI 行业(yè)称为“AI 三巨头(tóu)”、“深度 学习(xí)三巨头”、“三大AI教父”。
作为“深度学习三巨头”之一的本(běn)吉奥曾指出,AI一词正在被滥用(yòng),有些公司拟人化了AI系统,仿佛AI系统是与人类相当的智慧实体,但其(qí)实目(mù)前还没有(yǒu)出现与(yǔ)人类(lèi)智慧相当(dāng)的实体。当然(rán),他依然爱 AI 这一技术。
本吉奥表示,在2022年(nián)底ChatGPT出现之(zhī)前,他认为真正的(de) AI 风险(xiǎn)至少(shǎo)还(hái)要几十年才会出现,他曾经有一(yī)段时间并不怎(zěn)么担心AI安全(quán)问题,并且认为人(rén)类距离开发出(chū)能够与人类匹敌的 AI 技术还有“几十年的时间”,他假设我们(men)可以在面对风险之前“收获AI的好处”多年(nián)。
但现在,ChatGPT的推出完全改变了他的想法。他不再那么确定了。
他对AI发展速(sù)度的假设(shè)——以及(jí)技(jì)术对社(shè)会构成的潜在威胁——在2022年底OpenAI发布ChatGPT后(hòu)被颠覆了(le),因为(wèi)人类水平的 AI 技(jì)术 已 经(jīng)到来。
“自从我们最(zuì)终拥(yōng)有(yǒu)了能够与(yǔ)我们对话的机器(qì)(ChatGPT)后(hòu),我完全改变了我的(de)想法,”本吉奥表示(shì),“我(wǒ)们现在(zài)有了能够掌 握语言的AI机器。我们没(méi)想(xiǎng)到会这(zhè)么快就做到这 一点。我(wǒ)认为没有(yǒu)人真正预料到这一点 ,即使是构建(jiàn)这些系统的人。你可以看到,人们认为我们可能还需要几年、几十年甚至更长时间才能达到(dào)人(rén)类水平(píng)的(de)智能。人们普遍认为,一旦我们达到人(rén)类水平的智能,就很难预测会发生什么——我们最(zuì)终会得到非常非常好的(de)东(dōng)西还是非常非常(cháng)坏的东西,以及我们该如何应对。有很多不(bù)确(què)定性。这正(zhèng)是我目前在(zài)科学和政策方面工作的动力。”
在ChatGPT引发全(quán)球关于 AI 风险的讨论之(zhī)后(hòu),本吉奥开始投入更多的精(jīng)力倡导AI监管,并(bìng)且与同为(wèi)学术界和 AI 先驱(qū)的(de)Geoffrey Hinton一起公开支持一项(xiàng)有争议的加州 AI 安全法案SB1047,该法(fǎ)案将使公司(sī)在不采取安(ān)全预防措施的情况下,对(duì)其AI模型造成(chéng)的灾难性伤害承担责任。
本吉奥认为,这是(shì)“桌上第二重要的提案”,仅次于欧盟的AI法案。
当地时间8月15日,饱受争议的美(měi)国加州《前(qián)沿AI模型安全创新法案》(后称加(jiā)州(zhōu)AI安(ān)全法案SB 1047)在(zài)大幅(fú)度削弱相关条款之后(hòu),最终顺利通过加州众议院拨款委员会的审核。
SB 1047旨在通过追(zhuī)究开(kāi)发者的责任来防止大型 AI 系统造成大量人员死亡或造成损失超过 5 亿(yì)美(měi)元的网(wǎng)络安全事件。顺利通过审核之后(hòu),这(zhè)意味着(zhe),该(gāi)法(fǎ)案朝(cháo)着成为正式法律法规迈出了重要一步,也是美国在AI监管上迈出的(de)重要一步。
但是,加州(zhōu)AI安全法案饱受(shòu)争议。斯坦福大学教授李飞飞、Meta首席科学家杨立昆等人认为,该法(fǎ)案最终将(jiāng)会损害加州乃至美(měi)国在AI领域(yù)的领先地位,100多位学界人士也发文反(fǎn)对(duì),风投机(jī)构a16z专门建立网(wǎng)站细数法案六(liù)宗罪。
甚至前美(měi)国众(zhòng)议院议长南希·佩洛西(Nancy Pelosi)也发声明反对此法案,认为加州AI安(ān)全法案意(yì)图良好(hǎo)但缺乏充分 了解,许多重要的加州科技公司学者和负(fù)责人(rén)都表示反对该法案(àn),认为它弊大于利。
最新一个反对加州 AI 法案的(de)是OpenAI。OpenAI本周发(fā)文称,该立法将损害AI创新,并可能对美国在 AI 和国家安全方面的竞争力(lì)产生“广泛而重大”的影(yǐng)响。
然(rán)而,本吉奥却表示,加(jiā)州(zhōu)AI安全(quán)法(fǎ)案避免了过于规定性,而是使用(yòng)责任来确保AI公司不会忽(hū)视“合理专家会做的(de)”安全预防措(cuò)施。“它将为公司创造一(yī)个(gè)激(jī)励(lì),使他们不会成为班上最差的学生。”
本吉奥指出,围绕 AI 监管的讨论可能会受到风险投资家和希望从该技术中(zhōng)获利的公司的(de)影响。“你可 以将其与 气(qì)候变化、化石燃料公(gōng)司等进行(xíng)类比,”他说。
“事实并非如此,事实恰恰相反。它没有那么大的约束力(lì)。它(tā)并没有施加多大影响。它只(zhǐ)是说:如果你造成了数十亿美(měi)元的(de)损失,你就(jiù)要负责。几十年来,整个计(jì)算领域在某种(zhǒng)程度上一直不受任何形式(shì)的(de)监管。
我认为(反对派)更多的是意识形态。我真的很担心游说团(tuán)体的力(lì)量以(yǐ)及 Ai 带来的数万亿甚至数千万亿的利润(加州大(dà)学伯克利分校教授、人(rén)工智能系统中(zhōng)心创始(shǐ)人Stuart Russell表示)会激励企业反对任何监管。”本吉奥表示。
谈到风险管控,本吉奥指出,“我认(rèn)为自 己对(duì)风险(xiǎn)持怀疑态度。我听到过很多很好(hǎo)的论据,认为比我(wǒ)们更聪(cōng)明的人工智能可能非常危(wēi)险。甚至在它们比我们更(gèng)聪明之前,它们就可能被人(rén)类以对民主(zhǔ)极其危险的方式使用。任何说他们知道的人都过于自信,因为事实上,科学(xué)并(bìng)没有答案。没有办法(fǎ)以可(kě)验证的方式(shì)回答。我(wǒ)们可以(yǐ)看(kàn)到这样或那样的论(lùn)点,它们都是合理的。但是如(rú)果你是不可知论者,并且正在考(kǎo)虑政策,你需要(yào)保护公众免受真正糟(zāo)糕的事情的伤害。这就是政(zhèng)府在许多其他领域一直在做(zuò)的事情。没有理由说他们不能在计算和 AI 领域做到这一点。”
本吉奥反复强调(diào),他没想到(dào)人类会这么(me)快掌握(wò)对话式AI语音技术,而且目前至少达到足够人性化的水平。
“我认为,对危险事物进行快速(sù)创新的渴望是不明智的。在生物(wù)学领(lǐng)域,当研究人员发(fā)现通过所谓(wèi)的功(gōng)能获(huò)得研究可以制(zhì)造出危险的病毒时,他们一起决定,好吧,我(wǒ)们不(bù)这么做(zuò)了。让我们要求政府(fǔ)制(zhì)定规则,这样如果你这样做,至少在不受(shòu)控制的情况(kuàng)下,你就会进监狱。”本吉 奥(ào)表示,“我相信你(nǐ)知道合成儿童色情制品,也许情感上(shàng)不(bù)那么具有挑战性(xìng),但更重要的是,同样的深度伪造可能(néng)会(huì)扭曲社会。那些深度伪造(zào)只(zhǐ)会越来越好。声(shēng)音(yīn)会越(yuè)来越好。视频会越来(lái)越好。还(hái)有(yǒu)一件事人们谈论得不够:当(dāng)前甚至未来(lái)的系统说服人(rén)们改变想法的能力。就在几个月前,瑞士(shì)进行了(le)一项最新研究,他们将 GPT-4 与人类进行了比较,看看(kàn)谁(shuí)能说(shuō)服那些显然不知道自己是在和人交谈(tán)还是在 和机器交谈的人改(gǎi)变对某事(shì)的看法。猜(cāi)猜谁赢了。”
本吉奥指出,“我(wǒ)们(men)应该在AI方面采取类似的预(yù)防原则行为(wèi)。”
展望未(wèi)来,本吉奥强调,所有AI技术应用(yòng)依然会以(yǐ)健康方式改变人类的生活方式。比如在生物学(xué)方面,AI会(huì)了解身体(tǐ)如何运作、每个细胞如何 运作,这可能(néng)会彻底(dǐ)改变医学和药物研发(fā)等(děng)领域;气候方面它可以帮助制造更好的电池、更好的碳(tàn)捕获、更好的能量存储。
“虽然还没有发生,但我认为(wèi)这些都是我们可以用 AI 做出的很好的技术产品(pǐn)。顺便说(shuō)一句,这些应用——它们大部分都(dōu)不是危险的。因此,我(wǒ)们应该在这些显然可以帮助社会应对(duì)挑战的事(shì)情上投入更多(duō)。”本吉奥在对话结(jié)尾表示。
▎截至目前,本(běn)吉奥发表(biǎo)了300多(duō)篇学术论文,累计被引用次数超(chāo)13.8万次(cì)。吴恩达曾表示,本(běn)吉奥的许多理论研(yán)究对他有很大启发。
钛媒体App 8月(yuè)24日(rì)消息,被誉为“AI教父”的加拿大计算机科学家(jiā)、深(shēn)度学习技术(s“AI教父”本吉奥:人类无法用10年时间解决AI风险和监管问题hù)先驱、2018年图灵奖得(dé)主(zhǔ)约书(shū)亚·本吉(jí)奥(Yoshua Bengio)公开(kāi)表(biǎo)示,随着ChatGPT的推出,AI技术风险的时间被压缩,不幸的是,我们无(wú)法利用十(shí)年的时间解决AI风险和政策(cè)监管问题,而是更短的时间,因此行业需要马上行动,加快AI安(ān)全政策落地。
“制定政策需要花(huā)费大量时间,它需要解决多年分歧,像这样的立法都(dōu)需要数年时间才能(néng)颁布,需(xū)要建立一些流程,需很多年时间才能真正做好(hǎo)这个工作,”本吉(jí)奥对彭博社表示,他现在(zài)担心可能没有太多时间来“做好这件事”。而且更糟糕的(de)是,AI风(fēng)险这不仅是监管问题,它更是国(guó)际条约,大家需要(yào)在全球范围内解决这(zhè)个问题。
据悉(xī),本吉奥(ào)出生于巴黎,成长于加拿大,现居加拿大蒙特利尔(ěr),在蒙特利尔大学(University of Montreal)计算机科学(xué)与运算(suàn)系(xì)任教授。他于1991年获得加拿(ná)大 麦吉尔大学计算机科学博士学位。本吉(jí)奥的主要研究领(lǐng)域是深度学习和自然语言处理(lǐ)。
30余年的深(shēn)度学习研究生涯里,本吉奥发表了300多篇学(xué)术论文,累计被引用次数超13.8万(wàn)次。吴恩达(dá)曾(céng)表示,本吉奥的(de)许(xǔ)多理论(lùn)研究对他(tā)有很大启发。
2018年,他与“神(shén)经网络之父(fù)”Geoffrey Hinton和“卷积网络之(zhī)父”Yann LeCun三人因开拓深度学习技术理(lǐ)论而获得“图灵奖”,他们三位也被 AI 行业称为“AI 三巨头”、“深度学习三巨头”、“三大(dà)AI教父”。
作为“深度学习三巨头”之一的本(běn)吉奥曾指出,AI一词(cí)正在被滥用(yòng),有(yǒu)些(xiē)公司拟人化(huà)了AI系(xì)统,仿佛AI系统是与人类相当的智慧实体,但其实(shí)目(mù)前还没有出现与人类智慧相当(dāng)的实(shí)体。当然,他(tā)依然爱 AI 这一技术。
本吉奥表(biǎo)示(shì),在(zài)2022年底ChatGPT出现之前,他认为(wèi)真正的 AI 风险至(zhì)少还要几十年才会出现,他曾经有一段时间并不怎么担心AI安全问题,并(bìng)且认为人类距离开发出能够与人类匹敌的 AI 技术 还有(yǒu)“几十年的(de)时间”,他假设我们可以在面对风险之前“收获AI的好处”多(duō)年。
但现在,ChatGPT的推出完全改变了他的想(xiǎng)法。他不再那(nà)么确定了(le)。
他对AI发展速(sù)度的假设——以及技术对社会(huì)构成(chéng)的潜在威胁——在2022年底OpenAI发布ChatGPT后被(bèi)颠覆了,因为人类(lèi)水平的 AI 技术已经到来。
“自从我们最终拥有了能够(gòu)与我们对话(huà)的机器(ChatGPT)后(hòu),我完全改变(biàn)了我(wǒ)的想法,”本吉奥表示,“我们 现在有了能够掌握语言的AI机器。我们没想到会这么快就做到这一点。我认为没(méi)有人真(zhēn)正预料到这一(yī)点,即使是构 建这些系统的人。你可以看到,人们认为我们可(kě)能还需(xū)要几(jǐ)年、几十年甚至更长时间才(cái)能达(dá)到人类水平的(de)智(zhì)能。人们普(pǔ)遍(biàn)认为,一旦我们达到(dào)人类水平的智能,就(jiù)很难预测会发生什么——我们最终会得(dé)到非常非常好的东西还是非常非常坏(huài)的东西,以及我们该如何应对。有很多不(bù)确(què)定性。这正是我目前在科学和政策方面工作的动力。”
在ChatGPT引发全球关于 AI 风险的(de)讨论之后,本吉奥开始(shǐ)投入更多(duō)的精力倡导AI监管,并且与同为学(xué)术界和 AI 先驱的Geoffrey Hinton一起公开支持一项有争议的(de)加州 AI 安全法案SB1047,该法(fǎ)案(àn)将使公司(sī)在不采取安全预(yù)防措施的情况下,对(duì)其AI模型造成的灾难性伤害承担责任。
本吉奥认(rèn)为,这(zhè)是“桌上第二重(zhòng)要的提案(àn)”,仅次于欧盟的AI法案(àn)。
当地时间8月15日,饱受争议的美国加(jiā)州《前沿AI模型安全创新法案》(后称 加州AI安全法案SB 1047)在大(dà)幅度削弱相关条款之后(hòu),最(zuì)终顺利通过加州众议(yì)院拨款委员会的审核。
SB 1047旨在通过追(zhuī)究开发者(zhě)的责任来防止(zhǐ)大型 AI 系统造成大量人员死亡或(huò)造(zào)成损失超过 5 亿美元(yuán)的网络安全事件。顺利通(tōng)过审核之后,这意味着,该法案朝着成为正式法律法规迈出了重要一步,也是美国在AI监管上迈出的重(zhòng)要一步。
但是,加(jiā)州AI安全(quán)法案饱(bǎo)受争议。斯(sī)坦福大(dà)学教授李飞(fēi)飞、Meta首席科学家杨立昆等人认为,该法案最终将会损害加州(zhōu)乃至美国在AI领(lǐng)域的领先地位,100多位学界人(rén)士也发文反(fǎn)对,风投机构a16z专门建立网站细数(shù)法案六宗罪。
甚至前美国众议 院议(yì)长南希·佩洛西(Nancy Pelosi)也发声明反对此法案,认为加州AI安全法(fǎ)案意图良好(hǎo)但缺(quē)乏充分了解,许(xǔ)多重要的加州科技公司学者和负责(zé)人都表(biǎo)示反对该法案,认为它弊大于利。
最新一个反对加州 AI 法案的是OpenAI。OpenAI本周发文称(chēng),该立(lì)法将损害(hài)AI创新,并可(kě)能对(duì)美国在 AI 和国家(jiā)安全方面(miàn)的竞争(zhēng)力产生 “广泛而(ér)重大”的影响。
然而,本(běn)吉奥却表示,加州AI安全法案避免了过于规定(dìng)性(xìng),而是使用责任来确保AI公(gōng)司不会忽视“合(hé)理专家会做的 ”安 全预防措施。“它将为公司创造一个激励(lì),使他们不会成为班上最差的学生(shēng)。”
本吉奥指出,围绕 AI 监管(guǎn)的讨论可能会受到风险投资家和希望(wàng)从该技术中获(huò)利的公司(sī)的影响。“你可以将(jiāng)其与气候变化、化石燃料公司等进行类比,”他说。
“事实并(bìng)非如此,事实恰恰相反。它没有那(nà)么大的约(yuē)束力。它(tā)并(bìng)没(méi)有施加多大(dà)影(yǐng)响(xiǎng)。它只是说:如果你造成了数十亿(yì)美(měi)元的损失,你就要负责。几十年来,整个计(jì)算领域在某种程(chéng)度上一直不(bù)受任何形式(shì)的(de)监管。
我认为(wèi)(反对派)更多(duō)的是意识形态。我(wǒ)真的很担心游说团体(tǐ)的力量以及 Ai 带来的数万亿(yì)甚至(zhì)数千万亿的利润(加(jiā)州大(dà)学伯克利分校教授、人工(gōng)智能系统中心(xīn)创始人Stuart Russell表示)会激励企业反对任何监管。”本吉奥表示。
谈到风险管控,本吉奥(ào)指出(chū),“我认为自己对风险持怀疑(yí)态度。我(wǒ)听到(dào)过很(hěn)多很好的论(lùn)据,认为比我们更(gèng)聪明的人工智能可能非(fēi)常危(wēi)险。甚至在它们比(bǐ)我们更聪明(míng)之前,它们就可能被(bèi)人类(lèi)以对民(mín)主极其危险的方式使(shǐ)用。任何说他们知道的人(rén)都过于自信,因为事实上,科学并没有答案。没(méi)有办法以可验证的(de)方式回(huí)答。我们(men)可以看到(dào)这样或(huò)那(nà)样的论点,它们都是合理的。但是如果你(nǐ)是不可(kě)知论者,并且正(zhèng)在考虑政策,你需要保护公众(zhòng)免受(shòu)真正糟糕的事情的伤害。这(zhè)就是(shì)政府(fǔ)在许多其他领域一直在做的事(shì)情。没有理由说他们不能在(zài)计算(suàn)和 AI 领域做到这(zhè)一点。”
本吉奥反(fǎn)复强调,他(tā)没想到人类会这么快(kuài)掌握对话式AI语音技术,而且目前至少达到足够人性化的水平。
“我认为,对(duì)危险(xiǎn)事物进行快速创新的渴望是不明(míng)智(zhì)的。在生物学领域,当研究(jiū)人员发现通(tōng)过所谓的功能(néng)获得研究可以制(zhì)造出危险的病毒时,他(tā)们一起决定,好吧,我们不这么(me)做了。让(ràng)我们要求(qiú)政府制定规则,这样如果你这样做(zuò),至少在不(bù)受控制的(de)情况下,你就会进(jìn)监狱。”本吉奥表示,“我相信 你知道合成儿童色(sè)情制品,也许情感上(shàng)不那么具有挑战性,但更重要的是,同样的深度伪造可能会(huì)扭曲(qū)社(shè)会。那些深度伪造只会越来越好。声音会越来越好。视频会越来越好(hǎo)。还有一件事人们谈论(lùn)得不够(gòu):当前甚至(zhì)未来的(de)系统说服人们(men)改变(biàn)想法的能(néng)力。就在几个月前,瑞士进(jìn)行了一项最新研(yán)究,他们将 GPT-4 与人类进行了比较,看看谁能说服那些显(xiǎn)然不(bù)知道自己是在和人交谈还是在(zài)和机器交谈的人(rén)改变对某事的看法 。猜猜谁赢(yíng)了。”
本吉奥指出,“我们应该(gāi)在AI方面采取类似的预防原则行为。”
展望(wàng)未来,本吉奥(ào)强(qiáng)调,所有AI技术应用依(yī)然会以健康方式(shì)改变人类的生活方式。比如在生物学方面,AI会“AI教父”本吉奥:人类无法用10年时间解决AI风险和监管问题了解身体如何运作(zuò)、每个(gè)细胞如何运作(zuò),这可能会 彻底改变医学和药物研发等领域;气候方面它可以帮(bāng)助制造更好的电池、更好的碳(tàn)捕获、更好的能量存储。
“虽然还没有 发生,但我认为这些(xiē)都是我们可以用 AI 做出的很好的技(jì)术产品(pǐn)。顺便说 一句,这(zhè)些应用——它们(men)大部分都不(bù)是危险的。因此,我们应(yīng)该在这些显然可以帮助社会应对挑战(zhàn)的事情上投入更多。”本吉奥在对话结尾表示。
未经允许不得转载:战力电影网-最新电视剧在线观看-高清电影-全网热播动漫动画片 “AI教父”本吉奥:人类无法用10年时间解决AI风险和监管问题
最新评论
非常不错
测试评论
是吗
真的吗
哇,还是漂亮呢,如果这留言板做的再文艺一些就好了
感觉真的不错啊
妹子好漂亮。。。。。。
呵呵,可以好好意淫了