352.着急赶场-《这个路人过于冷静》
第(2/3)页
“唉。”
叹了口气,怕是这两题写完后,又得去小卖部拿两支笔,才能再去赶去下个考场。
看了眼第一道题:人工神经网络来源于生理学的人脑神经网络,最早指的是生物的大脑神经元,控制着生物的行为,人们模仿大脑神经元的功能建立了人工神经网络……‘神经网络是一种并行的分布式信息处理结构,由处理元件与单向信号通道互连而成,能够处理信息的计算机系统。’”
卷面上的大量介绍,陈默只是简单地扫了下,这些都是他研究的领域,看了眼设定的条件,便直接写了起来。
“人工神经元基本模型:如图1所示,人工神经网络由多个神经元组成,一般由多个输入一个输出,x1,x2,xn代表输入信号,yj代表神经元的输出,wij 代表输入信号x1 和神经元 j 之间的权重。bj 代表神经元的偏移量, f(.)为激活函数。设第 j 个神经元的净输入值为sj:则有以下……可证f(.)是单调递增函数,且是有界函数……
bp 神经网络算法由正向传播和误差反向传播两个过程组成。正向传播时,由输入层到隐含层再到输出层,每层神经元只影响下一层的神经元的状态……反向传播是根据误差函数、利用梯度下降法进行的,所以反向传播中最重要的是误差函数……”
陈默一边计算,一边阐述,不用说试卷上留有的空白根本不够写的,一面考卷就被写满了。好在之前陈默写前面的题目的时候,没有怎么用草稿纸。两张空白的a3的稿纸便被他拿来当答题卡了。
“激活函数的主要作用是提高神经网络的非线性建模能力,因为涉及非线性建模,缺少激活函数,神经网络只能表达线性映射,即使有再多的隐藏层,整个神经网络跟单层神经网络是等价的。加入激活函数,神经网络才具备了分层的非线性映射学习能力。bp 算法的优化方法是基于梯度的,激活函数必须是处处可导的……
代价函数是用来衡量预测值与目标实际值之间的关系,两者越接近,预测效果越好,反之……”
不得不说,陈默的写字速度还是一如既往的快,甚至因为这次赶时间,更加加快了速度,以往他不着急的时候,手是很轻的,哪怕写得很快,周边也太能听的清声音。这次可能是有些赶时间,加上周围确实都挺安静的,陈默这刷刷刷的声音,就显得有些明显了。
其他人也都在草稿纸上写写画画,但是多少都带点暴躁,所以划拉的声音都是一阵一阵的,只有陈默这边独独显得有点不同,这边书写的声音一直有,而且莎莎莎的声音太稳定,不知道的还以为是在写作文呢。
周围算半天被题目卡住的同学此时满脑子都是疑惑,不知道身边这人在干啥,抬头看了眼时间,考试才过去不到二十分钟,这次考试的难度真的不是一般的大,不少能力强的,现在连试卷的第一面都没有翻过去。
这哥们不会是被李老师这次的试题给逼疯了吧?
这“莎莎莎”的干啥呢?
从刚刚就听到这边一直都书写的声音。他们一开始没觉得什么,还一味卷子后面有题目需要大量书写,结果写了半天也没看到这样的题啊。还有人怀疑的往后翻了翻试卷,找了半天,确实没有看到需要大量书写的题。基本上都是计算偏多。
甚至有不少懵逼的同学,因为坐在陈默身后,还有身侧不远的位置,实在是没忍住,都没有顾上考试,抬起头来假装是在看时间,实则偏头用余光打量陈默那边,看看他到底在干啥呢。
然后就看到陈默桌子上和考卷一同发下来的草稿纸,其中一张已经被铺面了密密麻麻的字,因为离得远,看不清具体写的什么,只觉得怪工整的,不像是打的草稿。
联系到刚刚听到的声音,这倒真的是有点像是在写作文。
这哥们不会真的疯了吧?
题算不出来,崩溃了,直接写小作文“致敬”老师?
也许是不经意假装抬头看时间,实则偷偷往陈默看的人太多了,前面监考的老师也发现了。
“咳咳咳,都看自己的卷子,不要东张西望的。”
监考的老师轻咳了几声,严肃的提醒道。
众人闻言才把目光收了回来,不过老师不提醒他们也没有再看下去的想法了。确认过眼神,那是一个被李老师逼疯的人。
他们这一面的题目还没算下来,就开始头昏脑涨了,他们十分懂那个可能在草稿纸上写小作文的哥们的心,他们现在也想骂个十万八万字的。
没再关注陈默后,都低头认真写起了自己的卷子。
两名监考老师对视了一眼。
接连看了陈默那边好几眼。
第(2/3)页