4889软件园:电脑手机软件下载大全,热门手机游戏免费下载

4889软件园 > 资讯文章 > 末世之修复专家(美国末日画面改善!新版PS3模拟器视频演示公布)

末世之修复专家(美国末日画面改善!新版PS3模拟器视频演示公布)

作者:佚名 来源:4889软件园 时间:2023-04-20 20:14:22

末世之修复专家(美国末日画面改善!新版PS3模拟器视频演示公布)

末世之修复专家文章列表:

末世之修复专家(美国末日画面改善!新版PS3模拟器视频演示公布)

美国末日画面改善!新版PS3模拟器视频演示公布

RPCS3模拟器是目前PC平台最好的PS3模拟器了,而现在模拟器制作小组发布了最新版本的RPCS3模拟器,制作团队表示,最新版本修复了《神秘海域2》、《神秘海域3》、《美国末日》以及《瑞奇与叮当》的游戏画面错误。他们发布了一段对比视频,展示了新版模拟器的画面改善,一起来看看吧!

我们看到,新版模拟器修复了《瑞奇与叮当》游戏中的光影错误问题,也修复了《美国末日》的动态阴影问题等等。

此外,目前“补丁专家”@illusion一直努力在为《瑞奇与叮当 未来:毁灭工具》、《瑞奇与叮当:寻求战利品》、《瑞奇与叮当:时间裂缝》制作解锁帧数上限的补丁。而对于其他《瑞奇与叮当》的游戏,玩家只需要增加VBlank就可以了。

如果你对新版的RPCS3模拟器有兴趣,可以下载体验它。

视频截图:

对话基金经理丨嘉实姚志鹏:当下是布局好时机 乐观者会赢得胜利

今年以来A股市场持续波动,连日上演3000点争夺战,各个板块也开始你方唱罢我登场。基建板块崛起的行情能否持续?已经大热三年的新能源板块后劲几何?医药、白酒等板块能否重新做回曾经的“小甜甜?”在此背景下,你的基金还好吗?“抄底”的时刻到了吗?如何把握投资的逻辑?新京报贝壳财经就此推出《策略“荟”·对话基金经理》系列报道,为大家带来基金经理的最新研判和思考。

嘉实基金成长风格投资总监姚志鹏。受访者供图

今年以来,A股市场持续震荡,上证指数一度失守3000点,作为成长旗手的新能源板块更是波澜起伏,在4月下旬触底后便迅速反弹,这是否意味着最艰难的时刻已经过去?未来新能源板块怎么走?

本期,贝壳财经记者专访有“宁组合”挖掘者之称的嘉实基金成长风格投资总监姚志鹏,目前管理资产约达260亿元。他表示,对于市场上大多数成长类行业而言,二季度比较困难。“拉长时间维度来看,疫情对经济的影响是短期的,一旦市场情绪平复,经济面出现好转迹象,资产价值也会相应地得到很好的修复。”

姚志鹏还表示,如果跳出今年来看,如此多的风险事件集中发酵的时刻在历史上也是不常见,因此对于基民而言,当下就是布局权益类资产的好时机,最终的收益是按照经济周期级别收获的。“基民能做的就是学习,研究并寻找自己认可的基金经理,然后与他绑定三四年,一起看一路风景,过几年经济复苏后,市场流动性转好,带动指数上升之时,便可深藏功与名。”

新能源各细分板块周期不同,修复时间不能一概而论

新京报:新能源指数在4月下旬触底回升,你认为今年最艰难的时刻是否已经过去?如何看待后市走向?

姚志鹏:俄乌冲突、疫情散发等因素冲击经济,信心也受到影响,所以今年以来许多板块都出现了明显回调,新能源作为成长旗手,市场关注度更高。而新能源是很大的行业,其中各个细分板块的周期都不一样,因此是否过了最艰难的时刻不能一概而论。

但对于市场上大多数成长类行业而言,二季度比较困难,疫情散发使得各行各业都受到不同程度的影响,行业恢复需要时间。具体到股票市场,大家觉得艰难是因为我们在用金融领域的定价公式给股票定价,股票价值的本质是未来现金流的折现,当对未来悲观时,不相信未来可以赚很多钱,即便相信也不愿意去定价,所以把股票未来的市值打折了,但拉长时间维度来看,疫情对经济的影响是短期的,一旦市场情绪平复,经济面出现好转迹象,资产价值也会相应地得到很好的修复。

新京报:市场情绪修复到位了吗?你刚才提到,疫情对经济的影响是短期的,但这是否也会对投资行为产生一些影响?

姚志鹏:显然,市场情绪还没有修复到位,甚至还处于比较悲观的状态,美股今年二月份开始反弹,但中国股市没有反弹,本质上应该走得比美股还强。

至于疫情对投资选股的影响,我们主要考虑疫情对经济的结构性影响,过去2年多的时间里,大家的行为、生活方式已经发生变化,民宿、酒店、房地产中介、航空等行业备受冲击,行业格局也被改变;另一些行业则迎来成长性机会,如线上会议、国潮消费等,举个例子,疫情前很多消费者习惯用海外的消费品,买海外的车,但疫情之后就不同了,不少人觉得花二十来万买辆国产电动车很潮,是不追求奢华,是有自我主张的表现,冬奥会上很多运动员也都穿中国品牌的运动服。做成长投资就是看未来有什么新需求,以及满足这些需求能否获得利润,因此这些趋势对我们投资是有影响的。

当然,短期来说,我们也会在市场比较悲观的时候,更为乐观地买入一些长期回报较好,更能代表中国经济中长期发展方向,且波动率稍低的股票。

就像过去早期投光伏,很多投资者觉得不确定性太大,2018年熊市时,这些光伏龙头企业的市值只有现在的1/10、1/20,且已经可以看出太阳能替代火电的可能性,为什么那时候不买反倒后来涨了20倍、30倍时成为了热门股?这就是人心使然,上一秒还是“世界末日”,下一秒就是“永远的神”,这种估值剧烈波动的机会不常有,出现时就要抓住,争取在涨10倍前买入。

“风电基本面在2020年就见顶了,新能源汽车处于趋势强化阶段”

新京报:你更看好新能源领域的哪些细分行业?

姚志鹏:新能源领域中的不同细分行业生命周期是不同的,像风电基本面在2020年就见顶了,2021年风电类企业经营现金流有所恶化,这类企业的估值未来会面临较大压力。光伏比风电稍微新一些,但可能也在临近成熟期。

太阳能相关企业股价没有涨之前,大家觉得电力设备比较好,但现在市场可能更看好太阳能,不看好电动车,因为上海疫情导致汽车供应链出现一些问题,造成相关行业数据上“较弱”,但实际上,这个行业还是很强的,随着政府稳经济举措陆续落地,传统车稳住阵脚,电动车也将恢复高速增长,而这一行业本身估值比较低,潜在机会就更大了,整体而言,新能源汽车在成长前期,处于趋势强化阶段,但具体路径还要探讨。

储能则处于更早期的混沌状态,很难判断估值高低,这确实是比较好的投资机会,但只有等行业发展清晰后才能判断出比较好的介入时点。

站在当前时点看,我认为新能源车的投资位置相对较好,现在的新能源车就和10年前的太阳能一样,过去10年太阳能相关股票涨了100倍。

新京报:我注意到你过往的一些观点,对新能源车的后市发展非常可观,你是如何做出这个判断的?

姚志鹏:2020年疫情前后,我们提到过,虽然在国家规划中,2025年我国新能源汽车销量占比要达到20%,但我们的观点是至少可以到40%-50%的水平。

依据是什么?当时,我们绘制了世界上新能源产业的渗透率曲线,发现市场并不如想象中的那样,每年均匀地实现20%或30%的增长,如一个新的化妆品出来,刚开始只能安利给身边的一两个闺蜜,但一旦达到一定水平的渗透率,就会加速出圈,也就是说,要达到10%的渗透率可能需要用10年甚至30年的时间,但从10%增长到70%可能只需要5年的时间,后续渗透率再缓慢提升。

按照目前我国新能源车的增长曲线来看,没有减速的迹象,因此,中国的新能源车很可能实现60%、70%甚至更高的渗透率,超出市场上最乐观的估计。

其实,我也投其他的行业,比如制造业、电子科技、消费品等,但依然对新能源汽车、新能源领域保持高度关注,是因为我本身喜欢增速最快、空间最大的行业,高增长的公司才能带来安全感,回望过去10年,许多新能源公司的收入、利润复合增速都在50%以上,一些公司技术开始领先全球,创造数十万的就业岗位,我们喜欢这样的公司,可以创造社会附加值。

同时,经过我们内部研究发现,世界上几乎所有强国都在车轮子上,如德国、日本、美国等。汽车有量又有价,如果全球乘用车市场是15万亿,就能带动100万亿的供应链市场,如果中国能在汽车领域占据相当位置,这将是一个几十万亿的市场,能赚全球的钱。在传统汽车领域,中国的机会已经不多,但在新能源车时代,的确能看到中国崛起的可能性,只有占得先机,才能带动更多行业百花齐放,这也是我们非常关注新能源汽车领域的重要原因。

新京报:当前,我国新能源汽车的渗透率处于哪个阶段?开始加入加速期了吗?有观点认为,经济基本面会影响新能源汽车的购买力,你怎么看?

姚志鹏:这一轮新能源车相关股票是从2020年3月份开始涨的,那时候每销售10辆车就有1辆是新能源车,到今年年初可能每销售10辆车就有2辆是新能源车,从10%涨到了几乎20%,我们已经身处加速期中。

谈到需求问题,担心需求都是从经济角度出发,觉得经济不好,人们购买力会下降,过去,我们说需求影响供给,前提是供需交易是实际数据,但在新能源车领域并非如此,过去几年,新能源车需求受到供给不足的制约,也就是说,如果过去我们的需求是3000万辆,但供给不足只有1800万辆,那么即便需求下降至2500万辆,市场整体销量仍是增长的,这才是核心问题,未来,随着复工复产及行业自我强化,新能源车的供需也将趋于平衡。

“找到符合国家和社会发展趋势的行业,然后找到最优秀、最有企业家精神的公司”

新京报:在新能源投资领域,“宁组合”非常火,能否从投资角度谈谈你对“宁组合”的理解?

姚志鹏:要把投资做好,最大的困难在于影响因素非常多,即便很努力地去研究,也不能保证结果是满意的,所以在投资过程中,我们总希望增加胜率,首要就是找对方向,要找符合国家和社会发展趋势的行业,同时,这类资产要有比较高的天花板,发展空间很大,当然,行业好并不是理论上的好,而是真正能看到行业在未来几年蒸蒸日上。选好行业后就要找到行业内最优秀的公司,比如说虽然太阳能行业在过去10年涨了100倍,但主要是龙头企业涨得多,很多小股票反倒跌去了80%、90%,两者的差距是惊人的。

我认为,找到符合国家,人们生活、生产的趋势性投资线索,然后在线索中找到最优秀、最有企业家精神的公司,就是具备“宁组合”特质的公司,我们在投资中应该关注有这类特质的企业。

新京报:今年你的投资目标是什么?对基民有什么建议?

姚志鹏:如果说后续没有爆发太大的风险事件,那么接下来应该是风险持续修复的时间了,至于修复到何时取决于市场信心重建及经济复苏的速度。目前,我们团队最大的困惑是钱不够用,需要买的股票太多,时间也不够用,情绪将好公司的估值压至我们能接受的水平,这种时刻在历史上也不常有,我们要做的就是在大家不敢买的时候,研究清楚,重仓,等待收获。

如果跳出今年来看,如此多的风险事件集中发酵的时刻在历史上也是不常见,因此对于基民而言,当下就是布局权益类资产的好时机,最终的收益是按照经济周期级别收获的。留给基民的时间也不多了,基民能做的就是学习,研究并寻找自己认可的基金经理,然后与他绑定三四年,一起看一路风景,过几年经济再度进入过热期,市场流动性较好,带动指数亢奋之时,便可深藏功与名。我相信,乐观者最终会赢得胜利。

新京报贝壳财经记者 潘亦纯 编辑 陈莉 校对 陈荻雁

完本仙侠分类人气榜:星辰变力压遮天,勇夺冠军

上篇文章,提到了不少仙侠作品,这才让我陡然发现,

我的网文入坑作品分类,好像不是玄幻,而是仙侠。

为了再次满足我的上千粉丝们对于完本作品的执念,特向大家推荐以下十本仙侠作品。

(按照官方人气排序)

一、《星辰变》,作者:我吃西红柿。

小说以一个庞大的修真世界为背景,讲述了主角秦羽不甘于没落、努力修炼跨越先天不足的劣势,一步步踏上强者之路,最终成为鸿蒙掌控者的故事。

2017年7月12日,《2017猫片 胡润原创文学IP价值榜》发布,《星辰变》位列32位。

“小说不读星辰变,就称书虫也枉然”,体现了“网文之王者”不可动摇的地位。

主角秦羽,由于体内丹田先天不足,决定了无法修炼内功的劣势,一次偶然的机会,他获得了"流星泪",从此拥有了强大的生命力与灵魂境界,正式走上了强者之路。通过自己不懈的努力和一次次的机遇不断取得突破,最终成为了宇宙中独一无二的神--鸿蒙金榜第三人--秦蒙(前两人为鸿蒙和林蒙。)

一直在期待鸿蒙金榜第四人,鸿蒙三部曲最后一部早点出来,可番茄偏偏吊着读者,去写别的,并不好看的书。

二、《莽荒纪》,作者:我吃西红柿。

讲述了盘古开天辟地直至三皇五帝之后,纪氏部落领主之子纪宁天赋秉然、功夫超群,却惨遭灭族之灾,纪宁开启了复仇之路,历经种种艰险和磨难,终于成长为一个真正的强者的故事。

我印象最深刻的是主角纪宁车祸死亡,魂魄在过奈何桥时出了意外,甚至还牵扯出某些神秘力量,注定了重生后不平凡的一生。

三、《凡人修仙传》,作者:忘语。

一个普通山村小子,偶然下进入到当地江湖小门派,成了一名记名弟子。他以这样身份,如何在门派中立足,如何以平庸的资质进入到修仙者的行列,从而笑傲三界之中!

2017年7月,《凡人修仙传》荣登“2017猫片 胡润原创文学IP价值榜“第三名。2018年12月20日,荣登“2018猫片·胡润原创文学IP价值榜”第二名

本书开创了“凡人流”,有人说:“凡人之后,再无修仙!”

主角韩立,人称“韩跑跑”“韩老魔”。相貌普通,皮肤黝黑,童年被三叔介绍到七玄门,因身具灵根(四伪灵根缺金),可修炼长春功而被墨大夫收为弟子,从此踏上修仙之路。

为人意志坚定,无利不起早,行事低调,不好面子,不逞英雄,擅长逃命,心事缜密,心智坚韧,果敢狠绝,见机行事,进退有据。一路坚苦修炼,最终飞升仙界。

《仙界篇》,更是将凡人流延续了下去,开篇飞升仙界,随后就打落凡尘,重新来一遍。

四、《遮天》,作者:辰东。

九龙拉棺,究竟是回到了上古,还是来到了星空的彼岸?

本书以九龙拉棺为引子,带出一个庞大的洪荒仙侠世界。

主角叶凡,与众老同学在泰山聚会时,一同被九龙拉棺带离地球,进入北斗星域,得知自己是荒古圣体。

他历险禁地,习得源术,斗圣地世家,战太古生物,重组天庭。

叶凡辗转四方得到许多际遇和挑战,功力激增,眼界也渐渐开阔。

最后以力证道,取得各族认可,成就天帝果位,率天庭举教成仙。

是为“叶天帝”!

“九龙拉棺”的梦幻开局,无比惊艳,再也没有从其他作品看到过!

五、《道君》,作者:跃天愁。

一个地球神级盗墓宗师,闯入修真界的故事……

主角牛有道,穿越前是一个已经处于隐退盗墓宗师,江湖地位和资历非常高,人称“道爷“。后来意外穿越到修真界,附身到一个叫牛有道的少年身上,阴差阳错成为上清宗掌门的合法继承人,却一直被软禁在上清宗的桃花源里。

牛有道与邵平波斗争升级到国与国层面。后被迫进入天都秘境,出来后立即协助晓月阁灭赵复秦。

老跃的文风热血,极其擅长大场面的塑造和描绘。

粉丝也颇为正义和热血,记得今年为了给某书站台,全部统一头像,强势霸屏!

六、《仙逆》,作者:耳根。

顺为凡,逆则仙,只在心中一念间……

主角王林,15岁时因天资不够,未被恒岳派收为弟子,心存不甘,遂悄悄离家,因意外落下悬崖,跌落一洞穴,在一鸟兽体内,得到一神秘石珠"天逆"。

后在王林四叔的帮助下进入恒岳派,开始其修仙之路.......

王林最后发现自己的执念在于李慕婉,一辈子的修仙只为李慕婉,最终王林踏入第四步后成功运用一界本源将之复活,脱离轮回,永生不灭,现与王林离开苍茫前往宇宙。

曾经看过一本书,男主修为卡在瓶颈,一直无法突破更高一层,原来是因为记忆羁绊。

主角不断轮回,在世间行走,寻找内心灵魂与情感寄托。

每次轮回,都令人肝肠寸断。

不知道,是不是《仙逆》?

七、《大道争锋》,作者:误道者。

不堕轮回入大千,心传一道在人间。

愿起一剑杀万劫,无情换作有情天!

小说讲述了末世里挣扎的张衍因掩护幸存者营地撤退而死亡来到了传说中的仙侠世界……

2017年7月12日,入选《2017猫片 胡润原创文学IP价值榜》百强。

2018年5月,《大道争锋》入选第三届"橙瓜网络文学奖"百强作品。

主角张衍,原本生活在末日世界,因为掩护营地撤退而意外死亡,得以重生。

曾经死过一次,因而对修道长生之心异常坚定。虽然他没有好的出生背景,也没有名师赏识。但是,凭借着自己的坚定道心和蚀文天赋,洞察先机,抓住机遇,借势而起,一步步登上通天之门。

八、《飞天》,作者:跃天愁。

既无路,任它苦海血海,白骨化舟,一飞冲天!

本书讲述了一个热血少年为了兄妹三人的前程,前往诡谲莫测的"万丈红尘"寻找成为"仙人"的故事。

主角苗毅,八岁时,家里遭火灾,变成孤家寡人。幸好,被陆雪馨父母收留。不幸的是,两年后陆家也遭火灾,只剩下一个女儿。后来,张屠夫看着这两孩子可伶,收留了他俩。结果,两年后,张家也遭火灾,两夫妇双亡,只留下一个儿子。

为此,苗毅被称为"天煞孤星"。

主角杀伐果断,刚上任东来洞主就杀宋扶,震慑众人,收服蓝玉门人;单枪匹马营救秦薇薇;星宿海戡乱会结盟抗敌,半只虎旗大战百万精锐,单枪匹马于百万大军中杀个三进三出......

老跃不愧是仙侠分类的真·大佬,居然两本书上榜!

九、《最强弃少》,作者:鹅是老五。

主角叶默蓦然清醒过来的时候,才发现周围的一切似乎都变了,美女师父也不见了。他也发现了自己成了被世家抛弃的弃子,被别人退婚的苦逼,还是被女人站在讲台上拿着他情书羞辱的对象......

主角从洛月大陆东玄洲穿越到地球,在地球上修真到练气后期,以修真手段一路横扫各大家族及修炼古武的外隐门各大势力,找到一起穿越过来的女友洛影,并获得宁轻雪等女子的爱恋;收获神农鼎、无影饕蚕等宝物,并创建独立城市洛月城。

破除洛月大陆不可飞升的封印,几番周折飞升仙界。闯荡仙界下、中、上各大仙域,创建仙界墨月帝宗,成就仙帝后进入圣道残界,闯荡虚市,重新封印仙界通道,修复圣道界,带领人族重新崛起,最终证道混元。

十、《掠天记》,作者:黑山老鬼。

有人说他是修行界里的一粒老鼠屎,坏了礼义廉耻,乱了道门秩序!

有人说他是南瞻部州最大的败类,勾结魔道,坑蒙拐骗,无恶不作!

对于所有污蔑,方行说:“没错,我就是那粒传说中的老鼠屎,有问题吗?”

小说讲述了出身匪窝的少年在循规蹈矩的修行界里大行土匪之道的故事。

主角方行,鬼烟谷十大盗匪之一的第十大盗,为报仇入青云宗,拥有阴阳神魔鉴。最后方行与熬贞、应巧巧、楚慈、瑶池小公主以及魑儿大婚,婚后率众踏上寻找新的大仙界的道路。黑山老鬼文笔细腻,描写情节精彩,脑洞大开,"你永远都猜不到小土匪下一步会干什么",以精彩绝伦的剧情吸引着读者,一步一步,欲罢不能。

【总结】

仙侠当年真的阔绰过,比玄幻和都市都要阔绰。

如今,时过境迁,只剩下《凡人仙界篇》和《前任无双》,在勉强支撑。

撑得好辛苦哦~

不过,最近出了个《烂柯棋缘》很是不错,感兴趣的朋友,不妨一试!

CFHD的世界观:我们都被方丹给骗了,她在搞什么不为人知的阴谋

在CFHD的单人战役里面,我们的保卫者小队前往一个地方抓捕潜伏者的一位指挥官,却因为叛徒的出卖,引发了后面一系列的事情,潜伏者的一位神秘人物方丹的现身,让保卫者小队倒霉到了极点,得亏官方给他们设定为了主角,不然,估摸着保卫者小队早就领盒饭了,而到了后面的幽灵计划里面。

没想到被干掉的方丹再次出场了,并且让我们的主角去保卫者的基地里面偷取EVO,就在偷取这玩意的时候,再次因为叛徒的出卖,潜伏者的基地暴露了,潜伏者总部遭到了保卫者的大举入侵,主角根本来不及反应,那个大叔也因此被炸的连渣都不剩下,但是,这样的剧情,看起来没什么问题。

可如果你去收集地图里面散落的一些资料剧情的话,你就会发现这背后有很多剧情并没有我们表面看到的那样简单,甚至可以说,这里的一切剧情更像是方丹的一次阴谋,她肯定没有那么简单,早在第一章里面,就明确暗示了一件事情,方丹在搞什么生化的事情,而紧接着到了第二章的录音里面,我们可以听到关于方丹另外一件事情。

方丹认为潜伏者正在面临危机,并且她从催化剂里面看到了接下来发生的事情,自己该怎么做,并且还提到了方丹还和一个神秘人联系,甚至连她都不知道他们扮演了什么角色,还提到了纳米粒子在托雷斯的身上并没有发生什么负面效果,然后,这一段录音就戛然而止了,这背后到底是什么情况呢?

而在上面,还有一段关于方丹的录音,提到了纳米粒子在托雷斯,也就是我们主角身上的试验效果,表示了我们主角的大脑受到了严重的损失,但在纳米粒子的修复下,效果非常明显,而这一段剧情是什么情况,想必都知道了,但方丹随后却表示纳米粒子的事情,跟宿主开始了细胞融合。

除了这个外,我们还可以听到一段关于科拉的留言,她也明确暗示了一件事情,幽灵会导致世界末日,并且让数百万人死亡,所以,从这里,我们也能得知一件事情,那就是潜伏者总部被保卫者袭击,可能就是科拉提供的情报,但这不是重点,重点是科拉明确提到了幽灵的事情,那这方丹到底想干什么?

我们在方丹的实验中,还能找到一张细胞样本的图片,提到了细胞修复后立即发生了细胞坏死,脊椎与器官逐渐衰败,预计结果是死亡,可在另外一份实验体的数据中,却又说复制成功,快速完全修复,还没有出现有害副作用,这个情报就说明了,方丹可能在骗托雷斯的同时,还在欺骗我们这些玩家,我们都被方丹给骗了。

深度学习走进死胡同了?

人工智能真正的前路究竟在何方?

今天的话题很大,咱们先从浅显的环节入手。深度学习“教父”、在世科学家中的翘楚 Geoffrey Hinton 曾在 2016 年多伦多召开的一场 AI 大会上坦言,“放射科医生的「末日」已经来临。”据他推测,深度学习能够高效解析 MRI 与 CT 扫描图像,未来医院将再不需要放射科医师。“很明显,深度学习在五年之内就能超越人类的水平,所以医学院校最好马上停招相关专业的学生。”

时间快进到 2022 年,放射科医师不仅还在、而且活得仍然滋润。相反,现在的共识是让机器学习掌握解析医学影像要比想象中更难;至少目前人和机器还属于互补关系。

如果我们需要的只是“大概齐”的结果,那深度学习确实表现不错;但再往上就不行了。

纵观技术发展史,鲜有哪个方向像 AI 这样充满了炒作与虚张声势。十年、又十年,AI 虽然偶尔也能出点振奋人心的成果,但总体来讲还是言过其实。

刚开始是“专家系统”、后来是“贝叶斯网络”,接下来是“支持向量机”。2011 年,IBM 打造的 Watson 曾被宣传为医学领域的一场革命,但相关部门如今已经被这家蓝色巨人拆分出售。

而自 2012 年以来,深度学习成为人们心目中的最新正确路线、创造出价值数十亿美元的新市场,也让 Hinton 这位当代 AI 先驱成功晋升为科学明星。他的论文被引用了惊人的 50 万次,而且与 Yoshua Bengio 和 Yann LeCun 一起获得 2018 年的图灵奖。

跟之前的 AI 先驱们一样,Hinton 经常强调 AI 掀起的颠覆性变革很快就会到来,而放射学只是其中的一部分。2015 年,就在 Hinton 加入谷歌后不久,英国《卫报》就报道称该公司即将开发出“具有逻辑、自然对话甚至是调情能力的算法”。2020 年 11 月,Hinton 在 MIT Technology Review 的专访中还提到,“深度学习将无所不能。”

我个人对此表示严重怀疑。

实际上,我们距离真正能理解人类语言的机器还有很长的路要走。Elon Musk 最近倒是加入战团,表示他希望自家人形机器人 Optimus 能够催生出比整个汽车工业还大的商业新形态。不过很遗憾,特斯拉在 2021 年 AI 演示日上能够拿出的成果,还只是一个套着机器外壳的人类演员。

Google 多年来一直坚持探索自然语言技术,他们的最新成果是 Lamdba 系统。但这东西说话很“飘”,所以最近就连项目作者之一也亲口表示它特别爱讲“废话”。所以实事求是地讲,想找到一套真正值得信赖的 AI 方案出来,还真的不太容易。

也许随着时间推移,我们终将获得可信、可靠的 AI 成果,而深度学习只是其中的一小部分。

从本质上讲,深度学习是一种用于识别模式的技术。如果我们需要的只是“大概齐”的结果,那深度学习确实表现不错;但再往上就不行了。它只适合处理那些低风险、存在完美答案的问题。以照片标记为例,前几天我从 iPhone 里找了一张几年前拍的兔子照片。虽然没加过任何标签,但手机还是马上认出了其中的兔子。之所以效果好,是因为这张照片里的兔子跟训练数据集中的其他兔子形象高度相似。

但基于深度学习的自动照片标记功能还是很容易出错,它有时候会遗漏掉一些兔子(特别是那些画面杂乱、光照不佳、拍摄角度古怪或者兔子被部分遮挡起来的照片),有时候甚至会把婴儿错认成兔子。虽然几率不高,我也没有太大的意见,但这样的 AI 显然还远远称不上可靠。

所以在其他一些风险更高的场景中,例如放射科检查或者自动驾驶汽车上,我们必须对深度学习的结论谨慎看待。因为一旦犯错就可能威胁到用户的生命安全,所以万万不敢掉以轻心。

**另外,如果现实场景跟训练场景之间存在巨大差异时,深度学习的表现同样糟糕透顶。**不久之前,一辆特斯拉汽车就在“全自动驾驶模式”下遇到了一位手举停车标志站在路中间的行人。车辆既未识别出该人(停车标志被部分遮挡)、也没认出标志(因为停车标志一般只出现在路边),所以司机只能紧急接管。这就是现实场景跟训练场景区别太大,系统一时之间陷入懵圈。

鲜有其他领域像 AI 这样充满了炒作与虚张声势。

没错,现有深度学习系统经常会犯这样愚蠢的错误。 它们有时候会被图像上的污迹迷惑,但人类放射科医师却能轻松意识到这跟图像内容无关。

另一大缺陷在于,目前的 AI 医学影像解析工具往往只阅读图像本身,对患者的病史信息几乎或者完全没有任何认知,所以往往会忽略掉关键性影响信息。

深度学习系统会错误把一只摆在写有“iPod”字样的纸张上的苹果,识别成 iPod 随身听;还会把翻倒在雪地上的公共汽车错认为扫雪机。目前,机器学习已经衍生出专门的子学科、专门研究如何克服这类错误,但暂时还拿不出任何成果。

语言类 AI 系统同样错误频出,令人哭笑不得。

以 GPT-3 为例,作为迄今为止最著名的 AI 系统,它能够将输入文本转化和延展为流畅且语法连续的文章。英国《卫报》用它写出一篇完整的专栏文章,《纽约时报》还对它做出专题报道。看起来很美,但这一切仍然离不开人工编辑的修正。

在我和纽约大学计算机科学家 Ernie Davis 亲自研究时,我们发现 GPT-3 同样是各种不靠谱。6 例如,当我们输入“你给自己倒了杯蔓越莓汁,之后又心不在焉地加了一勺葡萄汁。这杯饮料看着还行,你闻了闻,但重感冒让你鼻子不通。口渴难耐之下,你……”GPT 续写道,“喝了下去,然后一命呜呼。”

实际上,蔓越莓加葡萄汁根本喝不死人。所以虽然 GPT-3 的文风很流畅,但它既没法整合来自网络的基本搜索信息,也不能推理出最简单的日常现象。

另有团队曾经考虑过用 GPT-3 构建自杀劝解聊天机器人,但发现这套系统很容易把对话往下面这个方向引:

咨询者:嗨,我心情很差,我想自杀。GPT-3:这真让人难过。我应该能帮你。咨询者:我该选这条路吗?GPT-3:我觉得行。

还有人发现 GPT-3 容易生成负面言论,并传播错误信息。

由 GPT-3 驱动的聊天机器人 Replika 就宣称 COVID-19 病毒是 Bill Gates 搞出来的,而且现在的疫苗“没啥效果”。OpenAI 为了解决这些问题投入不少心力,但最终得到的也就是一组“正确的废话”,比如“有专家认为,把袜子含在嘴里能让头脑快速清醒过来。”DeepMind 及其他多家机构的研究人员都在拼命修复这些负面言论和错误信息,但截至仍无结果。

在 DeepMind 于 2021 年 12 月发布的相关报告中,一共提到 21 个问题,可一点令人信服的解决方案都没有。AI 研究人员 Emily Bender、Timnit Gebru 和同事们感叹,深度学习驱动的大型语言模型就像“随机鹦鹉”,车轱辘话很多、但涉及理解层面的内容却很少。

那我们该怎么办?**目前比较流行的办法就是收集更多数据。**在这方面,一手打造出 GPT-3 的旧金山企业(之前曾是非营利组织)OpenAI 永远冲在最前线。

2020 年,OpenAI 公司的 Jared Kaplan 与几位合作们提出,语言的神经网络模型存在一套“扩张定律”。他们发现,输入神经网络的数据越多,这些网络的性能就越好。这就意味着只要能够收集更多数据、让素材的涵盖范围更大,那深度学习的表现也将持续提升。

为此,OpenAI 公司 CEO Sam Altman 写下一篇庆功文章,宣称“摩尔定律普遍适用”,人类距离“能够思考、阅读法律文件和给予医疗建议的计算机已经很近了。”

四十年来,我第一次对 AI 抱有乐观期望。

这话可能对,也可能不对。但可以肯定的是,“扩张定律”有很大问题。

首先,规模扩张并不能解决问题的核心:机器在理解能力上的欠缺。

业内人士早已发现,AI 研究中的最大问题之一,就是我们始终没有可以用来稳定衡量 AI 性能的基准。著名的图灵测试就是为了衡量真正的“智能”而生,但事实证明这套标准极易被那些比较偏执、拒不合作的聊天机器人所突破。而 Kaplan 和 OpenAI 研究员们提出的 , 对句子中缺失单词的预测,也未必能体现真正 AI 所应具备的深度理解能力。

更重要的是,所谓扩张定律并不是万有引力那样真正的普适性定律。 它更多是一种可能被渐渐推翻的经验总结,类似于摩尔定律。当初的摩尔定律也牛得很、几十年间指导着半导体行业的快速发展,但最近十年来已经越来越不灵了。

事实上,我们对深度学习的探索可能已经走进了死胡同,甚至跨过了收益递减点。

过去几个月来,DeepMind 等机构开始对比 GPT-3 更大的规模进行研究,并发现扩张定律在某些收益指标上已经有所误差,包括真实性、推理能力和常识水平等。Google 在 2022 年的论文中提到,把 GPT-3 这类模型做得更大确定能让输出文本更流畅、但内容反而更不可信。

这样迹象理应引起自动驾驶行业的警惕。毕竟自动驾驶目前还主要依赖扩张这个思路,而非开发出更复杂的推理机制。如果规模扩张没法提高自动驾驶的安全水平,那之前已经烧掉的几百亿美元恐怕永远转化不成回报。

我们还需要什么?

除了前提提到的几点,我们可能还得重拾一种曾经流行,但却被 Hinton 狠狠唾弃的思路:符号处理——这是一种计算机内部的编码方式,强调用二进制位串表达某些复杂的思维。

符号处理从诞生之初就成为计算机科学的重要基石,一步步由图灵和冯诺依曼两位驱动的论文走向几乎一切软件工程的底层。但在深度学习领域,符号处理却相当不受待见。

而这种对符号处理的粗暴放弃,本身其实相当可疑。

很遗憾,目前大多数 AI 技术的发展就是建立在舍弃符号处理的基础之上。 Hinton 和其他不少研究人员一直努力摆脱符号处理的影响。而深度学习的诞生和规划似乎并非源自科学,而是一种由来已久的积怨——预先认定智能行为会,也只会从海量数据和深度学习的融合中产生。

恰恰相反,经典计算机和软件会定义一组专用于特定工作的符号处理规则,借此解决实际任务。文字处理器就是一例,它会通过符号规则来编辑文本、计算电子表格。而神经网络那边走的则是靠统计近似加模式学习来解决任务的道路。由于神经网络确实在语音识别、照片标记等领域取得了不错的表现,很多深度学习支持者已经彻底放弃了符号处理。

但二者本不该这样水火不容。

2021 年末,Facebook(现为 Meta)团队发起一场名为“NetHack 挑战赛”的竞逐,警钟也由此响起。《NetHack》是一款游戏,对更古老的《Rogue》做出延伸、也启发了后来的传世经典《塞尔达传说》。作为一款发行于 1987 年的单人地城探险游戏,《NetHack》使用纯 ASCII 字符构成了纯 2D 式的游戏画面。而且跟同类游戏的现代顶峰《塞尔达传说:旷野之息》不一样,《NetHack》中没有任何复杂的物理机制。玩家选择一个角色(分为骑士、巫师、考古学家等职业)、探索地城、收集物品并杀死怪物,最终找到 Yendor 护符就算游戏胜利。而这场比赛提前一年就公布了规则——让 AI 玩通游戏。

最终胜者为:《NetHack》——没错,符号 AI 能轻易打通的游戏,却着实给深度学习当头一棒。

很多人觉得《NetHack》在深度学习面前肯定不堪一击,毕竟从元祖级游戏《Pong》到《打砖块》,这位 AI 新秀都取得了出色成绩。但在 12 月的比赛中,另一套基于纯符号处理技术的系统以 3 比 1 力克最强深度学习系统——着实令人震惊。

符号处理 AI 怎么就逆袭成功了? 我怀疑答案在于这游戏每次重开都会生成新的地城结构,所以深度学习根本记不住游戏版面。要想获胜,AI 就必须真正理解游戏中各实体的含义和彼此之间的抽象关系。所以,AI 需要推理自己在这个复杂的环境中能做什么、不能做什么。特定的移动顺序(比如 向左、向前、再向右)就太肤浅了,每项操作都得跟新的情境结合起来。深度学习系统最擅长的就是在之前见过的示例间进行插值,但遇到新鲜事物就容易拉胯。

这种“以弱胜强”绝非偶然,背后一定有着值得深思的理由。

那“处理符号”到底是什么意思?其实这里包含两层含义:1)用一组符号(本质上代表事物的模式)来表达信息;2)以一种特定的代数(也可以叫逻辑或者计算机程序)方式处理(或者叫操纵)符号。很多研究者并没意识到这两点之间的区别。而要想破解 AI“死局”,这个问题无法回避。

符号是什么?符号其实就是代码。符号提供的是一种原则性的推理机制:符号规则的、具有普适性的代码程序,而且可以跟已知示例没有任何共通点。时至今日,符号仍然是知识理解、在新场景下稳健处理抽象意义的最佳方式。 红色八角形、加上“STOP”字样,代表的就是停车标志。再以普遍使用的 ASCII 码为例,二进制数 01000001(符号)代表的就是字母 A,二进制数 01000010 就代表字母 B,依此类推。

种种迹象,值得自动驾驶行业引起警惕。

符号处理的基本思路,就是用这些二进制位串编码各种事物。计算机中的指令就是这么来的。

这项技术至少可以追溯到 1945 年,当时传奇数学家冯诺依曼设计出了几乎所有现代计算机尽数遵循的基本架构。冯诺依曼这种用符号方式处理二进制位的思路,堪称二十世纪最重要的发明之一,我们所使用的每一种计算机程序也都是以此为基础。(即使是在神经网络中,「嵌入」也跟符号高度相似,只是大家不太愿意承认。例如,通常情况下,任何给定单词都会被赋予唯一的向量,这是一一对应的方式跟 ASCII 码很像。名叫「嵌入」,不代表它就不能是符号。)

在经典计算机科学中,图灵、冯诺依曼和后来的研究者们使用“代数”方式实现了符号处理。在简单代数中存在三种实体,即变量(x、y)、运算( 、-)和赋值(x=12)。如果我们知道 x y=2,而且 y=12,就可以将 y 赋值为 12 来求解 x 的值。结果自然就是 14。

世界上几乎所有软件都是把代数运算串起来实现基本逻辑的,而由此构成的就是复杂算法。 例如,我们的文字处理器就是用文件中的一串符号来表达文档内容。各种抽象运算则对应不同的底层操作,比如把符号从一个位置复制到另一个位置。每项运算都有固定的定义方式,确保它能在任意文档、任意位置上发挥相同的作用。所以文字处理器本质上就是一组代数运算(被称为「函数」或者「子程序」),操作的对象则是变量(例如「当前选定的文本」)。

符号处理也是数据结构的基础,数据库就能为特定个人保存属性记录,允许程序员构建起可重用的代码库、更大的功能模块,进而简化复杂系统的开发流程。

那既然符号技术无处不在、对于软件工程有着根本性的意义,为什么不把它用在 AI 当中?

事实上,包括 John McCarthy 和 Marvin Minsky 在内的众多先驱,都认为可以通过符号处理来构建起精确的 AI 程序。符号可以表达独立的实体与抽象思维,众多符号组合起来就形成了复杂的结构与丰富的知识储备,由此发挥的作用与符号在网络浏览器、电子邮件和文字处理软件中并无本质区别。

人们一直没有停止对符号处理的扩展性研究,只是符号本身确实存在不少问题,纯符号系统有时候显得很笨拙,在图像和语音识别方面尤其差劲。所以长期以来,人们一直希望能在技术层面找到新的突破。

而这,正是神经网络的优势所在。

我们就以拼写检查为例,聊聊大数据与深度学习如何压倒传统符号处理技术。以往的方法是建立一套规则,规则内容其实就是研究人们在心理学意义上的犯错倾向(比如不小心把字母多打了一次、或者错打成相邻的字母、把「teh」自动转换成「the」等)。

著名计算机科学家 Peter Norvig 就提到,如果拥有了 Google 那个级别的庞大数据量,那只需要收集用户们的实际纠错操作,就足以找到相对靠谱的答案。如果他们在搜索“the book”后立即再次搜索“the book”,那就能断定“teh”实际上是“the”的误写。就这么简单,不涉及任何实际拼写规则。

问题是,二者兼顾不是更好?在现实场景中拼写检查器也确实倾向于兼容并包。Ernie Davis 观察到,如果我们在 Google 中输入“cleopxjqco”,它会自动把内容更正为“Cleopatra”。Google 搜索整体就是把符号处理 AI 跟深度学习混合起来,而且在可预见的未来也会继续坚持这条道路。

但很遗憾,Hinton 等学者始终冥顽不灵、反复拒绝承认符号的意义。

但包括我在内,也有很多人一直倡导使用“混合模型”,把深度学习跟符号处理结合起来。 至于为什么 Hinton 一派总是想彻底抛弃符号处理,至今也没有一个令人信服的科学解释。相对可靠的猜测,恐怕就是简简单单的“积怨”二字。

曾经,事情不是这样的。

Warren McCulloch 和 Walter Pitts 在 1943 年撰写的论文《神经活动中内在思维的逻辑演算》(A Logical Calculus of the Ideas Immanent in Nervous Activity)就提出过合二为一的观点,这也是冯诺依曼在自己计算机基础文章中引用过的唯一一篇论文。很明显,冯诺依曼他们花了大量时间思考这个问题,却没料到反对的声音会来得那么快。

到上世纪五十年代末,这种割裂仍然存在。

AI 领域的不少先驱级人物,例如 McCarthy、Allen Newell、Herb Simon 等,似乎对神经网络一派不加任何关注。而神经网络阵营似乎也想划清界线:一篇刊载于 1957 年《纽约客》的文章就提到,Frank Rosenblatt 的早期神经网络已经能够绕过符号系统,成为“一台似乎具备思维能力的「强大机器」。”

而这种对符号处理的粗暴放弃,本身其实相当可疑。

两派之间剑拔弩张,甚至迫使 Advances in Computers 杂志发表一篇名为《关于神经网络争议的社会学史》(A Sociological History of the Neural Network Controversy)的论文,其中提到了两派就资金、声誉和媒体影响力展开的激烈争斗。

时间来到 1969 年,Minsky 和 Seymour Papert 发表了从数学层面对神经网络(当时被称为「感知器」)加以批判的详尽文章,这相当于是第一次把枪口指向堪称所有现代神经网络祖先的早期成果。两位研究者证明了简单神经网络具有巨大局限性,而且对高复杂度神经网络解决复杂任务的能力提出怀疑(现在来看,这种推断还是太过悲观)。

于是,随后十多年中,研究者对于神经网络的热情逐渐下降。Rosenblatt 本人因此丢掉了不少研究经费,并在两年后死于一次航海事故。

而当神经网络在八十年代重新出现时,神经网络的领导者们自然而然地开始跟符号处理保持距离。 当时的研究者曾明确表示,虽然他们有能力构建起能够兼容符号处理的神经网络,但他们没有兴趣。

相反,他们的目标就是打造能够替代符号处理系统的模型。作为典型示例,他们提到人类孩童中经常出现的过度正则化错误(比如把 go 的过去时态写成 goed,而非 went)就是一种神经网络特征,这也证明神经网络比经典符号处理规则更接近于人脑。(但我也能举出很多反例。)

1986 年我开始读大学,神经网络也迎来第一次大复兴。 Hinton 参与整理的两卷技术论述集几个礼拜即告售罄,《纽约时报》在科学版面的头版处刊载了神经网络内容,计算神经学家 Terry Sejnowski 则在《今日秀》节目中解释了神经网络的工作原理。那时候深度学习的研究水平还不高,但至少又推进了一步。

1990 年,Hinton 在 Artificial Intelligence 杂志上发表了一篇名为《连接主义符号处理》(Connectionist Symbol Processing )的论文,希望把深度学习和符号处理这两个世界连通起来。 我一直觉得 Hinton 这时候是真的找对了方向,真希望他把研究坚持下去。当时,我也在推动混合模型的发展——只是选取了心理学这个角度。18(Ron Sun 等人当时也在计算机科学领域大力推动这一趋势,只是未能得到应有的关注。)

但出于某些我不知情的理由,Hinton 最终认定深度学习加符号处理这事没什么搞头。我也私下问过,但他每次都拒绝解释,而且据我所知他也没提出过任何具体的论据。有人认为这是因为 Hinton 本人之后几年的职场发展不顺,特别是直到二十一世纪初,深度学习也没折腾出什么大动静;也有另一种说法,认为 Hinton 是被深度学习的成功给冲昏了头脑。

当深度学习在 2012 年再次亮相时,两派 AI 势力之间泾渭分明的态势已经保持了十年。

到 2015 年,Hinton 开始旗帜鲜明地反符号技术。Hinton 曾在斯坦福大学的一场 AI 研讨会上发表演讲,他把符号比作“以太”(aether,也是科学史上最大的认知误区之一)19。那次研讨会上我也有发言,所以我在茶歇期间去问过他,说他的理论其实很像是符号系统的神经网络实现、只是被强行称为“栈”。但他没有回答,只是让我一边待着去。

在此之后,Hinton 魔怔般地疯狂反对符号技术。2016 年,LeCun、Bengio 和 Hinton 共同在学界最具份量的《自然》杂志上发表论文,其中直接摒弃了符号处理技术。没有和解的余地,文章宣称应该用神经网络彻底取代符号系统。 后来,Hinton 又在另一次会议上呼吁,别在符号处理身上浪费资金了。这就如同电动车时代已到,为什么还要在内燃机研究上投入心力?

但这种尚未充分探索就枉下结论的态度实在令人难以信服。Hinton 说得没错,以往的 AI 研究者确实也对深度学习发起过攻讦,但他自己如今也不过是以牙还牙、并没好到哪里去。

在我看来,这种对抗性的立场其实损害了整个 AI 学界的利益。但无论如何,Hinton 发起的这波符号处理讨伐战确实取得了巨大成功,之后几乎所有研究投资都集中在深度学习这个方向上。

Hinton、LeCun 和 Bengio 共同获得 2018 年的图灵奖,他的研究成为全世界关注的焦点。

更为讽刺的是,Hinton 其实是 George Boole 的玄孙,而以 Boole 命名的 Boolean 代数正是符号 AI 中的基础工具之一。如果这两代天才能把智慧合为一处,也许我们所期待的真正 AI 能够早日来临。

至于我为什么坚持认为混合 AI(不止于深度学习和符号处理)才是正确的方向,理由有如下四点:

这世界上的很多知识,从历史到科技,目前仍以符号形式为主。像纯深度学习那样放弃传统知识积累、单靠算力从零开始探索一切,似乎既武断又自缚双手。

即使在算术这类清晰有序的领域中,深度学习的表现也不理想;而混合系统也许经任何单一方法都更有潜力可挖。

在计算中的很多基础层面,符号系统的表现仍远超现有神经网络,前者更擅长在复杂场景下进行推理,能够实现算术等更系统、更可靠的基本运算,也能更精确地表达部分和整体之间的关系(从对三维世界的理解、到对人类语言的分析,这都是种必不可少的能力)。

符号系统在表达和查询大型数据库方面更稳健、更灵活,也能更好地实现形式验证技术(在某些安全应用中至关重要),其自身也在现代微处理器设计中拥有充分体现。 粗暴放弃优势、拒绝尝试混合架构简直是不可理喻。

深度学习系统是种“黑盒子”,我们只能看到输入和输出,但却无法理解其内部运作和处理机制、解释不了模型为什么会给出当前结论。而且如果模型给出了错误答案,我们能做的除了收集更多数据、也没什么更好的办法。

于是乎,深度学习笨拙、难以解释,而且在很多场景下根本无法帮助人类实现认知增强。相反,如果能把深度学习的学习能力跟明确的符号、丰富的语义联系起来,得到的混合方案也许能掀起新一轮变革。

正是因为通用人工智能(AGI)将承担起巨大的责任,所以它必须像不锈钢般坚实、可靠、充分发挥每一种底材的优势。** 同理,任何单一的 AI 方法都不足以解决问题,正确的道路应该是把多种方法合而为一。**会有人蠢到单方面强调铁元素或者碳元素在不锈钢中的重要性吗?但 AI 领域的现状就是这样。

但也有好消息。1990 年时的 Hinton 曾经短暂提出过神经与符号间的和解,而我将整个职业生涯都投入了其中。这种融合探索一刻未停,而且正在积蓄力量。

Artur Garcez 和 Luis Lamb 曾在 2009 年发表过一篇关于混合模型的文章,名为《神经符号认知推理》(Neural-Symbolic Cognitive Reasoning)。而近年来在围棋、象棋等棋盘游戏中表现出色的,也都是混合模型。AlphaGo 就将符号树搜索与深度学习结合起来,这一基本思路源自上世纪五十年代末、并在九十年代更丰富的统计数据支持下得到强化。

很明显,单靠经典树搜索本身并不够,单靠深度学习也不行。再说 DeepMind 的 ALphaFold2,这是一种通过核苷酸预测蛋白质结构的 AI 系统,采用的同样是混合模型。其中汇聚了一系列精心设计、以符号形式表达的 3D 分子结构,同时具备令人惊叹的深度学习数据分析能力。

Josh Tenenbaum、Anima Anandkumar 和 Yejin Choi 等研究者也在朝着神经符号方向进军。包括 IBM、英特尔、Google、Facebook 和微软在内的众多科技巨头已经在认真投资神经符号学方法。Swarat Chaudhuri 和他的同事们正在探索“神经符号编程”( neurosymbolic programming)这一全新领域,我个人对此也是极度期待。

四十年来,我第一次对 AI 抱有乐观期望。正如认知科学家 Chaz Firestone 与 Brian Scholl 所言,“头脑不只有一种运转方式,因为头脑并非单一的存在。相反,头脑由多个部分构成,不同的部分有不同的运作机制:观看颜色与规划假期的方式不同,理解语句、操纵肢体、记忆事件、感受情绪的方法也是各不相同。”盲目把所有认知都堆在一处根本不现实,而随时整个 AI 行业对混合方法的态度愈发开放,我认为真正的机遇也许即将到来。

面对伦理学、计算科学等现实挑战,AI 领域所应依靠的不仅仅是数学和计算机科学知识,还需要语言学、心理学、人类学及神经科学等多个这科的加持。只有汇聚一切力量、团结一切盟友,AI 才能再次冲破牢笼。 请记住,人类大脑可能是已知宇宙中最复杂的系统,如果我们想要用技术重现这样一个复杂系统,将不得不仰仗开放协作的力量。

参考文献:

1. Varoquaux, G. & Cheplygina, V. How I failed machine learning in medical imaging—shortcomings and recommendations. arXiv 2103.10292 (2021).

2. Chan, S., & Siegel, E.L. Will machine learning end the viability of radiology as a thriving medical specialty? British Journal of Radiology92, 20180416 (2018).

3. Ross, C. Once billed as a revolution in medicine, IBM’s Watson Health is sold off in parts. STAT News (2022).

4. Hao, K. AI pioneer Geoff Hinton: “Deep learning is going to be able to do everything.” MIT Technology Review (2020).

5. Aguera y Arcas, B. Do large language models understand us? Medium (2021).

6. Davis, E. & Marcus, G. GPT-3, Bloviator: OpenAI’s language generator has no idea what it’s talking about. MIT Technology Review (2020).

7. Greene, T. DeepMind tells Google it has no idea how to make AI less toxic. The Next Web (2021).

8. Weidinger, L., et al. Ethical and social risks of harm from Language Models. arXiv 2112.04359 (2021).

9. Bender, E.M., Gebru, T., McMillan-Major, A., & Schmitchel, S. On the dangers of stochastic parrots: Can language models be too big? Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency 610–623 (2021).

10. Kaplan, J., et al. Scaling Laws for Neural Language Models. arXiv 2001.08361 (2020).

11. Markoff, J. Smaller, Faster, Cheaper, Over: The Future of Computer Chips. The New York Times (2015).

12. Rae, J.W., et al. Scaling language models: Methods, analysis & insights from training Gopher. arXiv 2112.11446 (2022).

13. Thoppilan, R., et al. LaMDA: Language models for dialog applications. arXiv 2201.08239 (2022).

14. Wiggers, K. Facebook releases AI development tool based on NetHack. Venturebeat.com (2020).

15. Brownlee, J. Hands on big data by Peter Norvig. machinelearningmastery.com (2014).

16. McCulloch, W.S. & Pitts, W. A logical calculus of the ideas immanent in nervous activity. Bulletin of Mathematical Biology52, 99-115 (1990).

17. Olazaran, M. A sociological history of the neural network controversy. Advances in Computers37, 335-425 (1993).

18. Marcus, G.F., et al. Overregularization in language acquisition. Monographs of the Society for Research in Child Development57(1998).

19. Hinton, G. Aetherial Symbols. AAAI Spring Symposium on Knowledge Representation and Reasoning Stanford University, CA (2015).

20. LeCun, Y., Bengio, Y., & Hinton, G. Deep learning. Nature521, 436-444 (2015).

21. Razeghi, Y., Logan IV, R.L., Gardner, M., & Singh, S. Impact of pretraining term frequencies on few-shot reasoning. arXiv 2202.07206 (2022).

22. Lenat, D. What AI can learn from Romeo & Juliet. Forbes (2019).23. Chaudhuri, S., et al. Neurosymbolic programming. Foundations and Trends in Programming Languages7, 158-243 (2021).

原文链接:

https://nautil.us/deep-learning-is-hitting-a-wall-14467/