库克教授直接就点出了顾诚的短板。

    别的产业界大牛,无论微软还是谷歌,好歹有一水儿🀢⚈🏙的顶级大学研究所支撑。顾诚虽然也是搞互联网的,🆮💿🗨但他的技术含量是最低的那一型⚷🖂🏷。

    就像后世bat三巨头当🌢🀰🀟中,腾云是技术含量最低🔼🅼🋹的一个。🍓

    “你提到了神经网络算法这个拟研究方向,但我看不出来这🍓和你的产业有什么结合。让我们多伦多大学的教授去做那种看不到学术前景的花里胡哨东😇⚷西,有违本校的学风。”

    库克教授也不管自🆣己只是个所长,直接就盖棺定论了🀢⚈🏙。

    所谓“神经🛽⚐🐢网络式算法”,库克教授十几年前就有涉猎,相比于80年代以来的其他“np穷尽理论🁁🂳”而言,其最大的特点是“没有运算核心”。

    用人体来举例,人作为一个生物个体而言,是有中枢神经的绝大多数机体行动,都是大脑控制肢体,眼口耳鼻手足感知到了外部信号之后先要通过⚸反射弧传递到大脑(部分最低级的反射,至少也要到延髓/脊髓处理)等大脑作出处理指令之后,手足才会作出反应。

    但是如果把大脑单独作为一个独立个体解剖开🜏🁉来看,大脑内部上千亿个神经元是平等的。并不存在“某一小撮神经☩🂂元高于其他周边神经元、从而在处理信息时先由这一撮神经元预处理、预处理完之后再交给下一撮神经元处理”这样的先后顺序。

    (神经网络当然还有其他很多基础特点,这里仅仅讨论和“遗传算法/退火算法”的主要区别,所以不多赘🙦🌪述了。否则能水几万🇆字,大家还看不懂。)

    当年“神经网络”的概念被提出时,就是为了探讨一种让电脑高效处理类似于“找到礼堂里到底有没有我认识的人”问题的新方法:如果可以有多个电脑,自然随机地分配任务,并行从多个点开始用就近算法寻找,那么自然可以在“单核cpu”性能比较弱的情况下,通过堆砌cpu数量加快问题🞄👤🊸的解决速度。

    但这😚个概念并没有“节约计算资源”,因为理论上它只是把“1台电脑10小时工作量”变成了“10台电脑1小时的工作量”而已。而且这种最原始的“神经网络”也依然没法解决那些“似是而非”的模糊问题他们只能回答“有我认识的人/没有我认识的人”🞉💒👐这种非此即彼的问题。

    库克点名了在这个领域让顾诚对其应用模型说出个🔼🅼🋹子丑👕寅卯来,顾诚自然不能避战。

    “我拜读过辛顿教授对于神经网络的最新模型假说,卷积神经网络,以及🅐🅪🉔与之配套的学习型算法。我认为这个东西可以和互联网的自动识别/索引工具相结合。至于具体🐆♊🆱的应用场景么……那就属于商🗔🛒🛶业机密了,恕我无可奉告。”

    “卷积神经网络的新用法?”

    史蒂芬.库🛽⚐🐢克教授🆣一愣,但很快冷静下来,他可🂑不是一个概念就能忽悠住的。

    “看来,顾先生要论🂹📮🞏述的重点,就在于‘卷积’上面了?”

    “没错,如果没有‘卷积’,仅有‘神经网络’,我们依然没法讨论近似于人脑判断的🄪🀘☫模糊问题。”顾诚一🙦🌪副成竹在胸的样子,似乎对对方的反应早有预判。

    他打开电脑,接上🆣投影仪,屏🍩🊬幕上出现了一张猫的图片。

    “我用图上这只猫举例子尽管这只猫一只耳朵竖着一只耳朵折了,🛪眼珠瞳孔也有点不正常,尾巴还特别短,毛色肮脏还和📆😪照片的背景色非常接近,但我作为一个人类,还是一眼就认出了这确实是一只猫。

    现在,我用我根据辛顿教授的阀值思想编写的自学程序,用机器对这只猫🅐🅪🉔是否是猫进行初次预判。在这个算法里,我们预构了30个组合特征量,比如‘猫眼’、‘猫耳’‘猫毛’、‘猫尾’……然后用三十个神经元单🃵位的处理资源,分别针对每一个组合特征量进行预判,然后分别给出结果。

    在这三十个神经元单位内部,我们再根据‘本图猫眼与本神经元见过的猫眼’之间的像素相似度作出判断,给出一个积值,从而得到‘这有85%概率是一只猫眼’或者‘有70%概率是一只猫耳’之类的参考量。最后,把这30个组合特征量按照默认1:1的权重进行组合,最终平均分高于60分就🆆🍗判定‘这是一只猫’。”

    “那成功率🛽⚐🐢肯定很可怜。”库克教授耸耸🌓肩,一脸的悲悯。