2020-07-01 blog

这是今天的blog。看来貌似是有点能开始坚持的意味了。


昨天重置了surface go。先做好了基本规划然后再进行重装的。装完之后效果还是很不错的。
当然了,貌似在操作的步骤上面略微有点不完美,但是最终效果还是挺好的。

首先是备份。只不过因为我的sg上面大部分东西其实笔记本上面都有,所以这一步基本上也没啥文件需要备份,一个u盘就全带过来了。

然后是重置。重置直接清空整个c盘,比较干净。这一步主要是怕之前装的各种乱七八糟的东西影响后续的操作。

然后重置之后就是更新。原本打算用易升升到2004的,结果发现暂时还没有适配,所以就放弃了,就升到1909。笔记本升了2004,感觉比1909要漂亮。

然后就是先进行基础设置。装Chromium版Edge替换掉自带的Edge,使用火绒替换掉随时可能抽风的WD,并且顺便阻拦弹窗。使用软媒魔方进行一些常规的装机之后的设置。

然后就是装软件和环境什么的。大致如下:VS Code、Anaconda、Notepad++、GitHub Desktop、Foobar2000、Pot Player、QQ、SSR、Final Shell、FileZilla、坚果云、TeamViewer、Typora、Honey View、winrar(火绒挡掉这个的广告)。其他拓展的还有:幕布、QQ音乐、Steam等。

这里原本打算装上小米的智能互联软件,然后和手机互传文件的。结果后面发现传不了文件,所以还是卸载了。

然后Edge装上各种拓展,VS Code装上各种拓展,基本上就能好好使用了。

然后我又想到了,在笔记本上面折腾散热的经历,于是我打算试试在surface上面装xtu。
装完之后发现,是可以调整的,没有问题。然后的话,因为surface主要是移动使用,主要用电池,所以基本的思路是降温降功耗,要节能。一开始先根据网上的说法,降了0.05V,发现还是比较稳定的。所以我尝试了一下降0.075V,然后跑AXV2压力测试,效果还是不错的。
然后把功耗略微拉低了一点点。最终的效果是温度大概降了4度还是5度吧,挺不错的了。

但是,由于不在学校,目前surface也没有太大的用处,主要就是用来刷火影哈哈哈。


今天发现了,我的笔记本的触摸板有点翘起。原本我还以为是因为南桥那边热,导致金属变形了。我仔细一想,不对啊,如果真是因为热而导致的变形,应该很早之前就变了才对啊。因为改散热之前更热。

网上查了一下资料,大概定位了问题:电池鼓包。
但是我也不确定是不是因为电池的问题。看来得拆机验证一下。


之前折腾过的手机打字。

最近因为开始重新更新blog,也打算更多地输出”文字“或者其他东西。手机基本都拿在手上,很多时候灵光一现,用手机及时记录是一个很好的选择。

之前用过拼音双键来打字,是挺好用,但是可能是因为我用得不够多,并不够智能。
而且有些时候他跟直接的拼音,逻辑也不太一样。
不过最近我又开始练这个打字了。主要是因为k30p比mix2s还大了一圈,打字着实有点累。


灵感

“记忆”分类器

一种“新”的分类器构造方案,有点类似分工合作的思路。

第一步,将数据分为三类,一类是有标记,用于监督学习,一类是无标记,用于Student-Teacher方法,一类是验证集。

第二步,构建模型。模型分为两部分。第一部分是判别器,判断图像是否属于该判别器的类,最终输出是给出一个尺寸为(1)的置信度。该部分可以动态创建出多个,视具体数据集的不同会不同。第二部分是特征快速提取,用于判别对应的图像应当选取哪个或者哪些判别器,输出的是快速提取后的特征和判别器选择矩阵。

第三步,梳理数据流。图片输入->总模型->分模型1->特征提取层->[特征图,判别器选择矩阵]->分模型1输出->特征图复制n份,并乘上矩阵->分模型2输入->判别器->[置信度*n]->矩阵合并->分模型2输出->归一化->总模型输出。总输出包含:[判别器选择矩阵,置信度矩阵]

第四步,训练阶段。第一阶段:进行监督学习,由于选择矩阵和置信度矩阵理论上都为标签矩阵,所以将标签复制一份放到fit的y里面即可,即y=[labels, labels]。第二阶段:无标记学习。由第一阶段完全训练好的模型,对无标记的数据进行predict,生成“标签”,并与有标记的数据放到一起,用于新模型的训练。第三阶段:重复第二阶段。第二阶段的模型训练好之后,对无标记的数据进行predict,再和原本的有真标签的数据放到一起,再继续训练新模型。


emmm,好像以目前的TensorFlow的框架,我暂时想不出有什么办法可以实现“新增记忆”。


灵感

新SE层

参考此前的SE层,设计一个能够提取特征图的关联性并给出“推荐”的层。

SE层的机制是:对特征图进行简单“总和”,然后用全连接层来“计算”出权重值,再归一化。

新机制设计:对特征图先DownSampling(如果尺寸低于某个值就不降),然后通过卷积的方式,融合特征通道,最后在对新特征图进行“总和”,归一化后输出。

不知道是否可行。

计算量似乎会比原本要大。


灵感

LoopResNet

基于ResNet的block和bottle。一个bottle是ResNet计算的核心,而一个block里面是同样的bottle的重复。在一个ResNet中,block中除了与下一个block衔接的处理尺寸的bottle,其他的bottle都是相同的。

由于LoopNet的设计思路上与block里面的思路比较接近,因此尝试将二者结合起来。

那么,LoopResNet的设计其实非常简单。简要来说就是,将bottle写到Loop层的推理部分,然后最后输出的结果与input相加即可。当然,比起原始的Loop层还有一处有所简化,即不需要再UpSampling,只需要算回路部分。

可行性还是挺大的。不过得首先解决回路部分。

You may also like...

发表评论

电子邮件地址不会被公开。 必填项已用*标注