《AI 3.0》是一本讲述人工智能发展历程以及未来趋势的书籍。作者认为,AI技术已经从单纯的算法变得更加复杂,能够自主学习和创造。未来,AI将会在医疗、金融和教育等领域发挥更加重要的作用。但是,我们也需要警惕AI可能带来的道德和安全问题。
AI 3.0读后感(一)
作者介绍了机器视觉,alpha go,自然语言识别领域最新的进展和背后的原理:卷积神经网络,深度学习。受其导师侯世达的影响,作者对通用人工智能能否实现持怀疑态度。强调:项目前90%的工作占用10%的时间,而后10%的工作占用90%的时间。那么该如何理解技术爆炸呢?生命在寒武纪出现了大爆发。人工智能也将迎来它的寒武纪。
1/15页AI 3.0读后感(二)
侯世达的恐惧针对的则是完全不同的方面。他不是担心人工智能变得太聪明、太有侵略性、太难以控制,甚至太有用。相反,他担心的是:智能、创造力、情感,甚至意识本身都太容易产生了,这些他最为珍视的人性特征和人类精神,结果只不过是“一套把戏”,一套肤浅的暴力算法就可以将其破解。
这本书源于我对人工智能领域发展的真实状态的尝试性理解:计算机现在能做什么,我们在未来几十年又能从它们身上期待什么。
但是的确感觉除了最初的序言和一些点有些高屋建瓴之外,整个内容还是比较通俗,并且非常平淡的。读到三分之一处,感觉价值不太高。
2/15页AI 3.0读后感(三)
1、人工智能最初的预想,比现在还要激进、疯狂,只是后来并没有像预期的那样快发生,但比妨碍它的突飞猛进;
2、最初人工智能在面对语言时,是无法理解人类情绪的,但看起来有方法正在试图解决;
3、我们正在使用的图像识别,经过训练后的人工智能,可能会识别出我们人类无法识别的内容。
——闲书馆 书评人
3/15页AI 3.0读后感(四)
我们不是应该害怕机器太智能,而是害怕机器做出一些它们没有能力做出的决策 - 尾部事件。
在诺依曼有意无意的引导下,学界关于智能的思考和认识逐渐形成了两个派别:“图灵派”和“歌德尔派”
图灵派本质上是计算主义,认为基于简单规则的计算可以涌现出复杂的行为和智能。从物理符号系统的逻辑智能到联结主义的计算智能,这一思想主导了人工智能至今的发展历史,是构建智能系统的主要理论和方法源泉。歌德尔派认为根本没有构建智能的一般规律和方法,而且现有的一些规律和方法不应成为第一性的,只有动因和信念才是本质,接受现状继续演化是发展人工智能的唯一途径。
歌德尔派在人工智能的研究上至今并没有产生很大的影响,然而,在理解智能的影响和意义方面,歌德尔派的认识则非常重要,而且对智能科学的未来发展更具有指导性意义。歌德尔认为,存在先于可计算的不可计算,即存在不可计算的客观存在。
4/15页AI 3.0读后感(五)
开宗明义地说,这本书的大部分结论我都是认同的,但作者的论证手段几乎没有一个是值得被认同的。 作者差不多是看到一个学生数学考试不及格后,跟这位同学的家长说:你孩子做错的题是因为他没有真正理解数学,而作对的题目也不表示他真正理解了数学。 这就是这本书的特点:目前的AI做不到的事,表明了AI不能真正理解相关概念的意义;而在那些AI能做到的事情上,作者同样宣称AI其实并没有真正理解相关概念的意义。但,什么是真正的理解?什么是本质的认识?什么是意义?什么是意识?作者非但没有给出明确的定义,也没有给出可操作的判定,所有一切都是直接宣布AI本质上做不到。这种近乎耍赖的逻辑的唯一正确之处,是目前的AI的确还没有达到人类的程度,但除了这一众所周知的事实,作者并没有提出任何别的有价值的东西。 而且,其实,按照作者的说法和逻辑,我们可以毫无障碍地得出结论:宇宙中没有一个人类事实上拥有人类的智能能真正理解本质认识人类的概念。人类无法且永远不可能达到人类的高度,这一论断倒是非常后现代。
另,作者似乎非常挚爱她的导师GEB的作者侯世达,希望用这本书为她的老师打赢一场关键的舆论战的样子啊……
5/15页AI 3.0读后感(六)
之前,对于AI统治人类的学说还怀揣着隐隐的担忧。
读完本书后觉得,扯几把蛋的统治,人工智能只是叫智能,远远称不上是智能。
就拿图像识别来说,运用神经网络和深度学习,听起来是高端词汇,但还只是对图片的各个像素点进行重新计算,找特征来识别物体,所以图像微小的扭曲变动对人类来说根本没有识别障碍,对AI来说那就是大灾难了。无论是图像识别还是语言翻译处理,其实AI不知道自己在干什么,根本没有对所做内容有感性认知。
通过本书,大概了解到了一些基础AI词汇:
比如神经网络(加权与修改权重),深度学习(多隐藏层),反向传播算法(一种偏导数),
比如自动驾驶的长尾效应问题,
比如语言理解运用的词向量。
读完本书,更感觉人类大脑神经的不可思议。做出真正的人工智能,也是对人类思维的探索,人类所拥有的基础常识,拓展学习能力,认知联想创新能力远高于人类对自己的评估。
6/15页AI 3.0读后感(七)
这是一本帮助我们理解人工智能的影响与意义的著作。作者梳理了我们从逻辑智能(AI 1.0)到计算智能(AI 2.0),再向人机混合、虚实交互的平行智能(AI 3.0)迈进过程中的重要里程碑。
人工智能的核心概念——“智能”(intelligence)没有明晰的定义,针对类似“智能”的引申词有“思想”(thinking)、“认知”(cognition)、“意识”(consciousness)、“情感”(emotion)等。尽管当前最先进的人工智能系统在完成某些特定的细分领域的任务上拥有比肩人类的能力,甚至在某些情况下的表现已经超越人类,大家都乐观地认为我们即将实现通用的、人类水平的人工智能了,但这些系统都缺乏理解人类在感知、语言和推理上赋予的丰富意义的能力,也无法在其专业领域之外进行良好的泛化、形成抽象概念或者学会因果关系。此外,它们经常会犯一些不像人类会犯的错误,以及在对抗样本上表现出的脆弱性都表明:它们并不真正理解我们教给它们的概念。
我们应该感到害怕,不是害怕机器太智能,而是害怕机器做出一些它们没有能力做出的决策。相比于机器的“智能”,更应该害怕机器的“愚笨”。机器可以做出很多好的决策,然后某天却会因为在其训练数据中没有出现过的一个尾部事件而迅速失灵,这就是特定智能和通用智能的区别。
7/15页AI 3.0读后感(八)
很好的AI通识之作。从一开始的符号主义到卷积,再到强化学习和nlp,整个发展史是非常清晰的。技术和伦理的思考像两条平行的轨道一样并驾齐驱,对技术的理解和认识更生动了些。由此书得到的结论是
1. 阅读是学习的基础。读懂即理解。世界是个巨大的阅读理解题目,读懂是千里之行的第一步。code的project和英语阅读并无不同,全文大意由每段分别诠释,整个项目由各组件搭建。前后承接是article的思想脉络,也是code的essence。
2.notion记录是学习重要的一关。根据费曼学习法,输出加速输入。list帮助理解,也便利他人。
8/15页AI 3.0读后感(九)
一、本书屡次提到了侯世达对于未来人类精神艺术世界的担忧,穷极所有算法的机器作品占据了艺术圣殿。这让我想到了刘慈欣《诗云》里的情节,一个可以穷极所有诗词谱出无数诗律的存在,但是所以呢?你的读者、听众、观众,那位欣赏和沉醉于你作品的人在哪,若是无法被感知,即是无意义数据。
我当然担心艺术作品都被AI占据,因为依照他们的算力,日后的艺术作品都提前被他们无意识的或是写或是画或是谱出来了。就像猴子写的《莎士比亚》一样,这对艺术是个毁灭性的打击。我不能接受未对作品寄托感情的AI产出的作品。那就有一种吃美味蟑螂蛋白块的感觉。
二、我们对通用智能机器人的渴望是存在的。《钢铁侠》中的贾维斯,《星际穿越》里的Tars,《流浪地球II》中的Moss以及“哆啦A梦”,都扮演着帮助人类的得力助手。这些冰冷机器里的程序确实的温暖和陪伴了人类。至于他们是否会奴役人类,我的感觉是与其担心是否会被机器人奴役,我们更应该恐惧和担忧机器背后逾越规则的人类。话说机器为什么要奴役人类,图你好吃,图你年纪大还不洗澡?
三、本书帮我清理了部分对于未来工作的担忧。最近ChatGPT4.0的问世也会让我产生被机器淘汰的感觉,不过就如书中说的,工业文明非但没有让人失业,反而提供了大量更为优渥的工作选择。时代总会淘汰一部分人,我更担忧的是墙内的我们如何借用其提升我们的工作效率?一步慢步步慢啊。
四、对于没有计算机、人工智能、大数据等等背景的我们这条赛道应该怎么进入?突然感觉区块链、元宇宙、Web3.0这些没啥实际意义了,还是这玩意实用啊,惠及老百姓而不是被割韭菜。
9/15页AI 3.0读后感(十)
比较深入浅出地介绍了ai的各个分支(现在基本上都是用深度学习的方法在做了),最新内容截止到2016的阿尔法狗之前,transformer的内容还没有来得及更新上去。
作者像是拥抱神经网络的传统人工智能学者,更注重探讨意识、理解,虽然很详细介绍了各种深度学习方法,但是对其在对意义的理解上不持乐观态度。不过在GPT4出来以后,相信大部分人都已经开始重新思考“意识是什么”这个问题了。
我理解里深度神经网络本质上是在模拟人的潜意识活动——不加思索的直观印象,或直觉。但是由于计算机的恐怖算力,它可以直觉得非常精细——甚至凭直觉称霸围棋届、凭直觉作画画出非常逼真的东西、凭直觉进行一些(不算特别)困难的运算和推理。但是更高层更抽象的理解,目前还是处在一个懵懵懂懂的状态:这种状态就像是我们一边聊天一边洗碗时手上不停、或者是下课后一边回消息一边走不知不觉走到食堂的状态。
但这并不是因为计算机不能模拟抽象思维,而是(我始终认为是)因为目前的深度模型没有方便抽象能力形成、为先验知识和逻辑设计好框架(尤其是反思),以及因为从真实世界中信息获取方式的匮乏。就好像人也很难凭本能直觉到亚光速环境下的物理环境一样,人类的直觉本身不是为了这一点而设计的、也没有直观感受过这种情况。
但是我倒是觉得作者内心深处更深层次的焦虑并不在这,而且是在于即使某一天真正的通用人工智能真的出现了,也不过是人为制造了另一个黑箱,我们对意识之所以出现的深层原理却并不会有更深刻的认知。毕竟神经网络是自训练的算法,训练期间并不会人为干预,也就无从知道到底训练出了什么结构了。
10/15页AI 3.0读后感(十一)
2024年阅读的第四本书籍,一半不错的科普科普书籍,我深刻了解到人工智能的发展虽然取得了显著成果,如AlphaGo击败李世石、ChatGPT等创新应用深入生活,但其实AI的发展仍处于起步阶段。深度学习、自然语言处理和计算机视觉等领域的突破虽推动了技术迅速发展,然而全面智能化、通用化以及伦理道德等核心问题仍有待深入探究。同时,如何实现AI与人类社会的和谐共生,让AI更好地服务于人类,是未来的重要研究方向。 书中提到的通用人工智能(AGI)旨在构建能够理解、学习并适应广泛任务的智能系统,目标是达到或超越人类智能水平。尽管目前AI在特定领域表现突出,例如游戏领域已超过人类,但其泛化能力相对较弱,即从一项任务迁移到另一项任务时,往往无法像人类那样灵活运用已习得的技能。此外,AI还存在长尾效应,基于历史数据训练的深度学习模型在遇到未见过的新场景时,可能无法做出合理反应,相较于人类在应对未知情况时的表现稍逊一筹。 在技术项目实施过程中,通常发现完成前90%的工作耗时较短,而攻克最后10%则需要付出大量的时间和精力。对于不同类型的项目,这“最后10%”的意义不尽相同:有些项目达到一定准确率后即可推广落地,如部分机器学习应用;而某些对安全性要求极高的领域,如自动驾驶,则需追求极致的安全性,即使达到99%的准确性也不足以确保安全。 关于AI的价值观问题,由于AI的学习基于人类输入的数据,而人类价值观本身尚未统一,因此AI价值观的一致性也难以达成。另外,AI模拟人类心智的能力目前尚有限,因为计算机基于数学模型运行,必须将信息转化为数字形式才能进行处理,而人类天生具备理解和感知事物的能力,这是当前AI所欠缺的。尽管如此,AI作为强大的数字工具,在辅助人类科研及其他领域展现出巨大价值。 最后,写一下我对AI发展的看法,正如书中所述,AI的发展具有周期性,当下火热并不代表未来不会经历寒冬期。我作为一个研究生,建议不应仅凭当前行业热度决定,任何事物都有周期性变化,应以个人兴趣为导向,选择自己热爱并愿意深入研究的方向。同时,可以充分利用AI这一工具来助力自身研究工作。
11/15页AI 3.0读后感(十二)
语言大模型之后出现了图片大模型/音频大模型/视频大模型,一片欣欣向荣,让人容易产生AGI无所不能的虚妄感,梅拉妮·米歇尔的这本《AI 3.0》绝对算的上是一盆冷水。
米歇尔认为人工智能流派大致经历了如下几次变迁,现代人工智能的方向基本都在「亚符号人工智能」的路线上摸索,以深度学习为主导,以DNN、大数据和超高速计算机为三驾马车:
真正的智能 --> 符号人工智能 --> 亚符号人工智能 --> 神经网络 --> 机器学习 --> 深度学习
「符号人工智能」无须构建模拟大脑运行的程序,「亚符号人工智能」则从神经科学角度捕捉无意识思考,作者对这两个流派的态度都相当悲观,或者说「我们真的,真的相距甚远」:
对于「符号人工智能」,如果你没有有意识地认识到自己知道什么,你就不能成为向一台计算机明确地提供这些知识的专家;
对于「亚符号人工智能」,随着深度学习系统的应用愈加广泛,其智能正逐渐露出“破绽”。即使是最成功的系统,也无法在其狭隘的专业领域之外进行良好的泛化、形成概念抽象或者学会因果关系,而且经常会犯一些不像人类会犯的错误,以及在对抗样本上表现出的脆弱性都表明:它们并不真正理解我们教给它们的概念。拿引以为傲的卷积神经网络ConvNets举例来说,目前的ConvNets已经非常善于学习识别ImageNet中对象的特征,或选择围棋中下一步的走法,但是,它甚至连理想化的邦加德问题中所需要的抽象和类比的能力都尚不具备,更不用说对现实世界中的对象进行抽象和类比了。
在追求稳健和通用的智能的过程中,深度学习可能会碰壁——重中之重的“意义的障碍”。人工智能为打破这一障碍做了很多努力,包括为计算机灌输「常识」,并尝试赋予它们类似于人类的「抽象」和「类比」能力,当然这还远远不够,它还需要与世界进行交互,不然永远无法获得人类水平的智能。
人工智能还有很长的路需要探索,近期人们开始试着重回「具身」的思路,试着教给他尝试,教给他抽象和类比。
12/15页AI 3.0读后感(十三)
1.人通过构建心智模型来理解抽概念和情景。抽象和类比能力是其根基。 2.人工智能还无法理解我们提供的概念。 3.与其担心人工智能是否会替代/掌控人,不如担心人工智能做出它无法理解的决策所带给人们的危害; 4.现在人工智能,只能在某一领域中发挥作用——弱人工智能,而制造出真正能够像人一样多种情景下思考行事的人工智能(通用人工智能),这件事情距离还很远; 5.人工智能够根据大数据制作出音乐、文学、美术,这很正常,在某方面,艺术就是各种元素的组合,但这并不令人沮丧,因为人工智能并不能理解所制造的这些。理解\欣赏艺术,则是人类最为重要的能力。我觉得,这提醒我们教育下一代,要着重给他们提供一切能够增强其理解力和欣赏力的学习内容和任务,而非仅仅靠记忆完成的。
13/15页AI 3.0读后感(十四)
1.人通过构建心智模型来理解抽概念和情景。抽象和类比能力是其根基。 2.人工智能还无法理解我们提供的概念。 3.与其担心人工智能是否会替代/掌控人,不如担心人工智能做出它无法理解的决策所带给人们的危害; 4.现在人工智能,只能在某一领域中发挥作用——弱人工智能,而制造出真正能够像人一样多种情景下思考行事的人工智能(通用人工智能),这件事情距离还很远; 5.人工智能够根据大数据制作出音乐、文学、美术,这很正常,在某方面,艺术就是各种元素的组合,但这并不令人沮丧,因为人工智能并不能理解所制造的这些。理解\欣赏艺术,则是人类最为重要的能力。我觉得,这提醒我们教育下一代,要着重给他们提供一切能够增强其理解力和欣赏力的学习内容和任务,而非仅仅靠记忆完成的。
14/15页AI 3.0读后感(十五)
刚刚结束一段在某公司AI LAB的实习,这本书可以作为我这段实习中一些感性思考的理性总结。
其实对于目前各领域人工智能的发展,书中的一个推论是说得非常准确的:前90%的工作用10%的时间完成,后10%的工作用90%的时间完成。
在我所接触的ASR领域内,这就是目前的现实。对于资源最倾斜的P0语言(英语和中文),WCR已经能达到90%以上,但剩下的10%是一直难以跨越的鸿沟。目前来看,噪音和同近音错词是最大的影响因素,很容易理解,但是很难解决。真正要解决这两个问题,模型需要能够理解上下文的语义,但这正需要文中作者提到的通用人工智能。
这本书最有趣的地方是深入探究了当我们在谈论“人工智能”的时候,“智能”到底意味着什么,而这个问题让作者进入到了对人类智能的讨论。比较认同作者的观点,即所谓的“意义”“智能”“知识”“认知”这些词语,只是我们语言中的占位符。我们不能确定它们的含义,但是必须要有这些大概圈定范围的占位符帮助我们思考。
能看出来作者本身对于人类的意识和智能意味着什么这个问题也只有一些猜测,但是ta所探查的隐喻、类比、抽象这几个概念很有意思。我是语言专业的学生,尤其是对于隐喻,是完全不陌生的。我认为,按照作者的所谓“心智模型”的观点,那么我们的模型的核心应该就是隐喻、类比和抽象,因为它们就是我们赖以理解世界的方法。
再往前思考一步,我想提出的问题是,为什么我们在空想和用文字写/打下来的时候,我们这个“模型”运作的完整度、清晰度、流畅度会大有不同呢?我很确定,在使用文字的时候,我的思维模型是用“语言”来编码的;那么在空想的时候,我的模型真的也是在用语言在编码吗?如果是的话,为什么效率会大有不同呢?
我没办法确认以上问题的答案,即“空想”和“文字书写”对于心智模型运作的影响。但使用文字书写时心智模型运作的高效率应当是毋庸置疑的。那么,同样作为语言,不同的语言文字(汉语、英语、阿拉伯语......)的不同“编码”体系,是否会对心智模型的运作效率有不同的影响呢?
所有这些都是很有意思的话题。人工智能的发展速度飞快,这本书在2019年出版,今年是2023年,仅仅过了四年,书中的不少观点就因为chatgpt的出现显得落伍了。但尽管如此,我想书中作者的大方向还是正确的。chatgpt很牛,但还是“大力出奇迹”的结果,技术路线相较以往的方案没有大的变化,也就意味着它离通用智能的距离并没有靠近多少。那最后的10%的工作,到底需要多久才能完成,到底有没有可能完成,这是很让人着迷的问题。
15/15页