2020-07-29 blog

今天的计划(优先级从上到下)

  1. 写一个python爬虫,爬取一个up的所有视频号,并且将每个视频号下的所有评论都爬取出来,整理到一个excel
  2. 继续学java,要写java代码
  3. 继续探究【增长式神经网络】的模型
  4. 研究另一种http转跳https的方法
  5. 清理和整理博客上的文章

我发现,自己不知不觉开始形成一种习惯,就是对于一个东西的部署,更加习惯于去形成一个可复现的文档。这虽然意味着我可能还要回头重新从头部署一遍,但是这对我来说可能更加适合吧。

有的时候可能因为遇到一个问题,会折腾很久,找各种方法。最后可能是解决了,但是是并不知道具体哪些步骤是关键。有可能前一个方法虽然没有效果,但是它和后一个方法结合起来就解决了问题。而这,因为过程没有记录,或者记录了没有去做分析,或者做实验,相对来说其实就是不可复现的。而这种不可复现,我觉得是要避免的。

当然,我会发现,虽然我会很努力去做到这种流程上的clean,但是始终只能是一个理想状态。现实情况往往会出现各种意料之外的情况,需要去处理。


我在想,每次说到人工智能的时候,总会有人说什么人类的情感是机器无法做到的。

但是,情感它的本质到底是什么?为什么会出现情感情感在人类的活动中起什么样的作用?

如果能够构建出一套情感模型,那么其实这样的模型应该是可以尝试模拟出来的。

以后再查资料吧。


我突然发现,现在虽然记blog的习惯是养成了,但是以目前的blog管理方法,想要快速地翻看过往写过什么,有点麻烦。

得逐篇文章打开看,而且不确定某个写过的内容在哪个地方。

可能我还需要一个markdown管理软件?

大致的设想是:通过文件名日期,映射到一个日历上面,然后点击日期可以立刻渲染出markdown,查看到内容。最好是可以加上一个内容标记之类的东西,有点类似书签,就是标记出blog里面的某一块写的是啥。虽然tag有点接近这个东西,但是还是不完全一样,而且tag限制也比较大。

目前可能只能是在网站上面用搜索试试了?不过这得先清理一下其他文章


不出意外的话,nj68应该是开学之后收到。

我还打算等开学之后再买轴和键帽。键帽打算整一套紫色系的。

然后是tb买一套润轴套装什么的,好像也不是很贵,看到一家店,基本上整套都全了。

应该的话,还会买一瓶WD40,作为洗板水。

键盘这块的话,其实可以参考之前关注的b站的一个up一样,把折腾的过程放在博客里面的一个叫boy‘s fantacy里面。可能之后其他的折腾也可以放到这里面。

突然想到,回到学校之后其实还有很多东西要折腾。比如说桌子,还有各种其他事。

而且突然我又想到了,一个学期没有到学校,相当于八个月没有生活费

我已经长期收支不平衡了,唉。


我发现,好像只有在我睡觉之前这段时间,写blog的字数才会多起来。

也不知道算是好事还是坏事。


出乎意料的,这次爬取非常顺利。

目前是全爬到一个json里面了。

之后的话新出的视频就先不管了,以后再另外单独爬吧。

反正方法已经在手里了。

接下来就是把这些评论转换成excel,或者CSV?


继续花了点时间写了一个统一的可持续更新的py

顺便处理了一下csv的格式。不指望用office excel打开了,直接在vs code里面装了一个csv插件,可以高亮显示一下就差不多了。

反正也是肉眼筛出想要的东西

歌名这种东西,正则就算了吧。


没想到,爬评论很快,刷评论就真的是噩梦了。

花的时间有点多。


略微花了一点点时间就解决了https转跳了

有点顺利


关于增长式神经网络

目前我并不确定一点,那就是这个增长,是增加神经元,还是增加连接(突触)。

按照目前的许多模型来推算的话,它们总的来说其实就相当于是构建了一大堆有规律的神经元,然后通过训练把一大堆的连接给删掉。这看起来和人脑学习产生突触有点在直觉上相反的意味。

如果是基于这些已有的模型的话,可能可增长模型是很难构造出来的。

但是,怎么去构建出一个模型呢?

在一开始,我先假定这个是图像领域,也就是视觉信息。

首先,视觉信息通过视锥细胞和视杆细胞将光信号转化为电信号。视杆细胞接受的是弱光,对色彩不敏感,而视锥细胞接受的是强光,在非色盲的人眼中,分为对红光、绿光、蓝光敏感三类。在计算机中,可以认为RGB编码与视锥细胞的感光大致相同。然后可能就在视杆细胞上面比较难理解了,这可能得去看看视觉神经方面的书籍。目前在不知道的情况下,就假定是以红绿蓝三色计算得出光强值之后,取某个低阈值以下的光吧。

人的视网膜上,视杆细胞约有1.2亿个,视锥细胞约有700万个。

然后是传递。从视锥和视杆传递过来的信号,是单线式的连接,然后是一路到双目信号交会的地方从中间分开,左右会合。这里暂时先不考虑双目的情况。

然后这个时候可以将输入的视觉信息视为像素化的信息了。在这之后是经过了几个神经区域(大致用区域来描述吧,用层的话不一定准确),分别是RGC、LGN、V1、V2、V4、IT区,最终经过神经细胞的处理得到的是抽象的信息表达。每个区域里面都是retinotopic map,翻译过来是视网膜脑图。这个东西暂时不清楚,也得之后再去研究学习。

然后有可能并不是直接用n个神经元再做一下矩阵算法就算是最后结果。我猜想,有可能是这些抽象的信息表达,与记忆区域里面的某个储存值对应的特征,比较接近。也就是说我猜想这是一个特征映射的过程。

如果说模型计算出来的是一些特征,而不是某些储存值的置信度的话,这也就意味着同样的一个模型,可以复用,只需要将不同的特征映射到不同的储存值即可。那么在特征和储存值之间,应该需要构建一个映射器。而这个映射器,我猜想有可能是大脑运算里面的一个内核部分?

而且如果是这样的模型,那么也有可能是可以实现多种特征交联感知的。比如说视频,既有图像的视觉信息,也有音频的听觉信息,两种信息交联同时递交到映射器,映射到一个储存值。比方说视频里面某一段内容,是小鸟的图像,而声音是小鸟的叫声。那么这两种特征其实都映射到了同一个东西上面。

现在暂时先不考虑多特征的问题,先尝试构建一个最简单的模型。

输入信息(原始输入)->神经输入(经过处理后的输入)->神经区域计算->特征/抽象的信息表达->映射器->记忆值(分类)

整个模型,最难的地方其实就在于这个映射器怎么构建。

如果能够解决映射器,可能做出来就比较容易了。

You may also like...

发表评论

电子邮件地址不会被公开。 必填项已用*标注