Carpe Diem

How to write shortest code with Python

I was so enthralled by the Codefights Challenges of writing shortest code last weekend. After several attempts, I finally managed to rank #1 in this MatchingParentheses problem with one-line solution of only 77 chars(excludes whitespace). Curtailing chars of solution is fun with little tricks. In the following I will show the tricks I used in this problem. Problem Description: Given a string para, consisting of symbols '(', '[', '{', ')', ']', '}' and ' ', find out if it is a correct bracket sequence (CBS in short) with occasional whitespace (' ') characters.

Python代码风格指南(三)命名约定(PEP8中文翻译)

命名约定(Naming Conventions)

Python标准库的命名约定有一些混乱,因此我们永远都无法保持一致。但如今仍然存在一些推荐的命名标准。新的模块和包(包括第三方框架)应该采用这些标准,但若是已经存在的包有另一套风格的话,还是应当与原有的风格保持内部一致。

重写原则(Overriding Principle)

对于用户可见的公共部分API,其命名应当表达出功能用途而不是其具体的实现细节。

描述性:命名风格(Descriptive: Naming Styles)

存在很多不同的命名风格,最好能够独立地从命名对象的用途认出采用了哪种命名风格。

以下是常用于区分的命名风格:

Python代码风格指南(二)字符串引用、空格、注释和版本注记(PEP8中文翻译)

字符串引用(String Quotes)

在Python中表示字符串时,不管用单引号还是双引号都是一样的。但是不推荐将这两种方式看作一样并且混用。最好选择一种规则并坚持使用。当字符串中包含单引号时,采用双引号来表示字符串,反之也是一样,这样可以避免使用反斜杠,代码也更易读。

对于三引号表示的字符串,使用双引号字符来表示(译注:即用"""而不是'''),这样可以和PEP 257的文档字符串(docstring)规则保持一致。

表达式和语句中的空格(Whitespace in Expressions and Statements)

最长回文子串Longest palindromic substring的四种算法

题目描述:

给定字符串$S$,求其最长的回文子串。

Leetcode:https://leetcode.com/problems/longest-palindromic-substring/

下面给出四种算法思路,分别是朴素枚举、动态规划、中心拓展和Manacher算法。

其中,Manacher算法复杂度为$O(n)$

Python代码风格指南(一)代码设计(PEP8中文翻译)

翻译自:PEP 8 - Style Guide for Python Code

介绍(Introduction)

这篇文档说明了Python主要发行版中标准库代码所遵守的规范。请参考实现Python的C代码风格指南信息PEP。

这篇文档和PEP 257(Docstring Conventions)都改编自Guido(译注:Python之父)最早的Python风格指南文章,并加入了Barry风格指南里的内容。

语言自身在发生着改变,随着新的规范的出现和旧规范的过时,代码风格也会随着时间演变。

很多项目都有自己的一套风格指南。若和本指南有任何冲突,应该优先考虑其项目相关的那套指南。

机器学习第一战——阿里天池移动推荐算法比赛经验总结攻略

历时98天的阿里移动推荐算法终于结束了,有种终于下了贼船的感觉。总的来说,整个比赛的体验并不好:时间太长,资源不够,运气成分大,学到的干货少。虽然学到的干货不多,但这毕竟是在Data Science道路上进军的第一场实战,还是有必要好好总结一下。

比赛统计

初赛名次:21

复赛名次:22

Python代码行数:2320

SQL代码行数:6656

天池平台数据表数:1006

线下结果数:490

机器学习笔记7 高偏差/低偏差,学习曲线,模型选择

Andrew Ng cs229 Machine Learning 笔记

原文:https://share.coursera.org/wiki/index.php/ML:Advice_for_Applying_Machine_Learning

面对一个机器学习问题,我们提取好特征,挑选好训练集,选择一种机器学习算法,然后学习预测得到了第一步结果。然而我们不幸地发现,在测试集上的准确率低得离谱,误差高得吓人,要提高准确率、减少误差的话,下一步该做些什么呢?

可以采用以下的方法来减少预测的误差:

  • 获得更多的训练样本
  • 减少特征的数量
  • 增加特征的数量
  • 使用多项式特征
  • 增大或减小正则化参数$\lambda$

但不要盲目在这些可行的方法里随便选一种来提升模型,需要用一些诊断模型的技术来帮助我们选择使用哪种策略。

机器学习笔记5 神经网络2 参数学习

Andrew Ng cs229 Machine Learning 笔记

成本函数(Cost Function)

以下是我们会用到的一些变量:

  • $L$表示神经网络的层数
  • $s_l$表示第$l$层的神经单元数(不包括偏差(bias)单元)
  • $K$表示输出单元数(分类数)

当有多个输出类别时,采用$h_\Theta(x)_k$表示第$k$个输出的假设结果。

神经网络的成本函数是logistic回归中的成本函数更普遍的一种形式。

logistic回归中的成本函数为:

python numpy 计算自相关系数

在分析时间序列时,通常需要计算一个序列的自相关系数。自相关(Autocorrelation)又叫做序列相关,通常采用自相关系数来发现序列的重复规律,周期等信息。

我们有序列$X:x_1,x_2,x_3,…,x_n$,设$X_{s,t}$为$s$时刻开始,$t$时刻结束的序列:$x_s,x_{s+1}…,x_{t-1},x_t$。$\mu_{s,t}$为序列$X_{s,t}$的均值,$\sigma_{s,t}$为序列$X_{s,t}$的标准差。那么一阶自相关系数为:

机器学习笔记5 神经网络1 模型表达

Andrew Ng cs229 Machine Learning 笔记

神经网络

非线性假设

在特征变量数较大的情况下,采用线性回归会很难处理,比如我的数据集有3个特征变量,想要在假设中引入所有特征变量的平方项:

共有6个特征,假设我们想知道选取其中任意两个可重复的平方项有多少组合,采用允许重复的组合公式计算$\frac{(n+r-1)!}{r!(n-1)!}$,共有$\frac{(3 + 2 - 1)!}{(2!\cdot (3-1)!)} = 6$种特征变量的组合。对于100个特征变量,则共有$\frac{(100 + 2 - 1)!}{(2\cdot (100-1)!)} = 5050$个新的特征变量。

可以大致估计特征变量的平方项组合个数的增长速度为$\mathcal{O}(\frac{n^2}2)$,立方项的组合个数的增长为$\mathcal{O}(n^3)$。这些增长都十分陡峭,让实际问题变得很棘手。

在变量假设十分复杂的情况下,神经网络提供了另一种机器学习算法。

经过省察的人生The examined life

译自《A companion to Socrates》第14章,作者Richard Kraut

经过省察的人生

“未经省察过的人生是不值得过的人生”(《申辩》38a5-6)。这句苏格拉底耳熟能详的名言,也许是有史以来一个哲学家嘴中最肆无忌惮的话。苏格拉底的哲学思想和他的生活方式的本质也蕴含在这句话中。苏格拉底把自己的人生作为——或者更确切地说,柏拉图把他的人生作为——真正经过了省察的人生。要了解我们如何才能达到这种人生的要求,必须从柏拉图的作品出发,来好好学习苏格拉底给我们树立起来的好榜样。

机器学习笔记4 正则化

Andrew Ng cs229 Machine Learning 笔记

正则化 Regularization

为了和正规方程(normal equation)里"正规"区分开来,这里Regularization都译作“正则化”,有些地方也用的是“正规化”。以下内容来自wikipedia

正则化是指通过引入额外新信息来解决机器学习中过拟合问题的一种方法。这种额外信息通常的形式是模型复杂性带来的惩罚度。正则化的一种理论解释是它试图引入奥卡姆剃刀原则。而从贝叶斯的观点来看,正则化则是在模型参数上引入了某种先验的分布。

机器学习笔记3 有监督学习 分类 logistic回归

Andrew Ng cs229 Machine Learning 笔记

分类问题

分类问题和回归问题不同的是,分类问题的预测值$y$只能取离散值,而非连续值。首先来看一个二类分类问题,预测值$y$只能取0或1。0又被称作负例(negative class),1被称作正例(positive class)。通常也用"-","+“符号来表示。对于一个样本集输入$x^{(i)}$,对应的目标值$y^{(i)}$也被为标注(lable)。

logistic回归

也可以用线性回归的方法运用到分类问题上,但是这样做很容易得到不好的结果。稍微改变一下我们的假设函数$h_\theta(x)$,使其的取值在{0,1}范围内:

机器学习笔记2 有监督学习 线性回归 局部加权回归 概率解释

Andrew Ng cs229 Machine Learning 笔记

有监督学习

局部加权线性回归(Locally weighted linear regression)

参数学习算法(parametric learning algorithm):参数个数固定

非参数学习算法(non-parametric learning algorithm):参数个数随样本增加

特征选择对参数学习算法非常重要,否则会出现下面的问题:

  • 欠拟合(underfitting):特征过少,模型过于简单,高偏差(high bias),不能很好拟合训练集
  • 过拟合(overfitting):特征过多,模型过于复杂,高方差(high variance),过于拟合训练集,不能很好预测新样本

对于非参数学习算法来说,并不需要进行精心的特征选择,局部加权线性回归就是这样。

局部加权回归又叫做Loess,其成本函数为:

机器学习笔记1 有监督学习 线性回归 LMS算法 正规方程

Andrew Ng cs229 Machine Learning 笔记

有监督学习

先理清几个概念:

  • $x^{(i)}$表示"输入"变量(“input” variables),也称为特征值(features)。
  • $y^{(i)}$表示"输出"变量(“output” variables),也称为目标值(target)。
  • 一对$(x^{(i)},y^{(i)})$称为一个训练样本(training example),用作训练的数据集就是就是一组$m$个训练样本${(x^{(i)},y^{(i)});i=1,…,m}$,被称为训练集(training set)。
  • $X$表示输入变量的取值空间,$Y$表示输出变量的取值空间。那么$h:X \rightarrow Y$是训练得到的映射函数,对于每个取值空间X的取值,都能给出取值空间Y上的一个预测值。函数$h$的含义为假设(hypothesis)。
  • 图形化表示整个过程:

Hugo静态网站生成器中文教程

前言

Hugo是什么?官方文档是这样介绍它的:

Hugo is a general-purpose website framework. Technically speaking, Hugo is a static site generator.

Hugo是一种通用的网站框架。严格来说,Hugo应该被称作静态网站生成器。

静态网站生成器从字面上来理解,就是将你的内容生成静态网站。所谓“静态”的含义其实反映在网站页面的生成的时间。一般的web服务器(WordPress, Ghost, Drupal等等)在收到页面请求时,需要调用数据库生成页面(也就是HTML代码),再返回给用户请求。而静态网站则不需要在收到请求后生成页面,而是在整个网站建立起之前就将所有的页面全部生成完成,页面一经生成便称为静态文件,访问时直接返回现成的静态页面,不需要数据库的参与。

about

关于我 2010 HR@RUC 2014 CS@ICT, CAS 坐标北京,90后,女。 本科的时候开始写博客,缘由是下定决心转CS专业,记录一下自己的学习和生活。现在看来,学习的内容有点太少了,生活的吐槽倒是一大堆。所以为了当一个好的程序媛,干脆弃掉原来的点点博客,折腾一个属于自己的地盘,记录一些学习笔记和自己的想法,就当督促自己吧。 电邮: nanshu.wang@gmail.com 喜欢: 过山车 童话 Modern Family 刘慈欣 羽毛球 凉面 马尔克斯 Wes Anderson 恋爱的犀牛 安房直子 栀子花 22 42 GEEK笑点 三重镇 郑渊洁 Battlestar Galactica 抹茶味八喜冰淇淋 关东煮的蟹粉包 茄子 滑滑梯 Pixar 宫崎骏 智力游戏 Dixit 德州扑克 搜索引擎 豆瓣 油茶 粤菜 回锅肉 排骨香肠 番茄鸡蛋炒饭 小吊梨汤 咖啡厅 苏格拉底 Markdown Manictime 纪念碑谷 Popcap 红楼梦 Shameless Mac 东区全日早餐 早茶 三明治 滑雪 长跑 Sublime Text 鱼豆腐 油泼面 王小波 蒋勋 Python 卜东波老师 李钟硕 Running man 颜文字 韩语 Aaron Swartz Wunderlist 番茄土豆 Wikipedia 集邮

Scikit-Learn机器学习介绍(中文翻译)

翻译自:http://scikit-learn.org/stable/tutorial/basic/tutorial.html

以后可能会根据自己的学习慢慢翻译其他的章节,水平有限,不足之处请指正。

本章内容 在本章中,我们会介绍在使用scikit-learn中遇到的机器学习(machine learning)术语,以及一个简单的机器学习例子。

机器学习:问题设定


一般来说,机器学习问题可以这样来理解:我们有n个样本(sample)的数据集,想要预测未知数据的属性。

孤独的反思——读《孤独六讲》

第一次知道蒋勋,是默存同学送给我的一本《蒋勋的卢浮宫》。我对西方美术完全没有了解,这本书一开始我也很不以为然。蒋勋用他自己的美学视角,写的一本卢浮宫导游书。读一遍下来我一直以为蒋勋是一位年轻的艺术家,因为他的文字就像是一个人在你身旁慢慢说话,没有任何艰深难懂的地方,把我所以为很难懂的美术讲成了一个个平常的故事,不夸张也不造作,有一种原来美术是这样来理解的恍然大悟。

后来,开始慢慢听《蒋勋说红楼梦》,才知道他原来主要是研究文学。也多亏他,我才意识到《红楼梦》是多么精彩而伟大的小说,以前走马观花的阅读失去了多少趣味。

离开学还有十一天

最近过着一种十分规律的生活:早睡早起,早午晚都去同样的地方吃饭,走同样上下班的路,进同样的电梯,按下同样的7楼,和同样的同伴说同样的话题。头回开始觉得,重复同样的生活并没有什么不好,甚至有点不想离开,去面对新学期新课程新同学新宿舍的新鲜劲。毕业已经有快2个月了,朋友圈里充斥着大家新生活的状态,或兴奋或无奈或沮丧或否极泰来,总之都带有一种move on的气氛。而面对我的新生活,我却更愿意待在回忆里不肯走出来。大概是因为心中还有郁结堆在那里,没有和珍惜的人好好道别,更是被自己的话一语中的,像是karma一样,明明是高中的翻版,我的角色对调了而已。

大学42句

3年前在这个学姐的博客里看到反映我大学经历的50句话。就想着等我快毕业时,也要写这么一篇。最近失眠得厉害,必须到深夜大家都沉沉睡去时,才慢慢回忆起这些闪在脑海中的话。我一向觉得我长期记忆能力好差,要想凑够数量足够多的句子还要费上很长一段时间。但昨天的脑洞一开,这些句子简直是自己长了翅膀飞出来的一样,闭上眼睛,仿佛说话的人就在耳边。这些句子的主人,有最亲密的好友,也有仅一面之缘的陌生人,有老师,有同学,有父母,有朋友,有恋人,也有我自己。有的话恐怕当事人已经不再记得,只有我知道这些句子在当时是如何惊起心中的波澜,对我多么宝贵。本来也想凑够50句,但第42句已经是前几天毕业采访的时候了,况且42是一个多么符合GEEK气质的数字啊,凑不够也就作罢。

近期计划

说来惭愧,尘埃落定之后便抛弃了记录学习过程的习惯。最近实在是有点颓废,记一下好勉励自己。 搞定毕业论文 edX的课程跟上,不要拖过deadline 找暑期实习 不要看闲书,看正经书 背GRE单词 学习《韩国语》第一册 少刷微博少逛淘宝 第二次去青岛,girls’ spring break, 深夜啤酒! 从开学以来保持了记账的好习惯,果然开支控制得很好,但是天气好起来就想买小裙子的心情无法抑制 第二个习惯是听电台,IT公论简直是涨姿势的好途径,好喜欢Rio 最近想追的:Ellen show巨好笑, 简直要爱上Ellen Degeneres了T T;韩国版的爸爸我们去哪儿也好好看>< 每天刷instagram也要爱上Jesse Tyler了星星眼

《恋爱的犀牛》

看现场的话剧比书本上的对话明朗了许多,说到最后这也不过是一个“我爱你,你不爱我”的故事。用最近从《程序员的数学》上学来的分组方法,爱情的分组不外乎是一下三种:

  1. 我爱你,你也爱我
  2. 我爱你,你不爱我
  3. 你爱我,我也爱你
  4. 你爱我,我不爱你

其中,1,3都是Happy ending(如果没有婆媳矛盾,身世之谜种种阻挠),然而大部分陷入爱情的迷阵里的青年,都在2,4里苦苦挣扎:有的有幸在2,4的循环里进入了1,3的接口,终止了自己的不幸;有的却在这个循环里咒骂爱情的无情,不得逃脱。

以前我总觉得,聪明的人一定会冲着2,4move on:要么从2到1,积极努力不行再换个人;要么从4到3,自己的信再铁石心肠也会有被打动的一天吧。然而《恋爱的犀牛》却不是讲着完全相反的故事,爱着明明的马路不停得重复这句告白:

一切白的东西和你相比都成了黑墨水而自惭形秽,一切无知的鸟兽因为不能说出你的名字而绝望万分。

Count Down

直到昨晚东方突然问我“你记得去年的最后一天我们在干什么吗?”,我才发现一年的时间在记忆里的印象是如此短暂。2012年最后一天,是我大学第一次参加班级活动,在教室里玩游戏,随后去聚餐吃饭。那天是默存同学在经历了电脑包被偷之后,从遥远的哥本哈根机场飞回北京的日子。去吃晚餐的路上我还清楚地记得我们说到了MDF和Alan show。下午的游戏我们还得到了一套很豪华的三国杀,吃过饭便和几个同学一起去知四玩三国杀到凌晨,在明亮的图书馆前愈显黑暗的路上,讲着恐怖的悬疑推理故事。

软件自定义网络Software-Definded Networking

译自:https://en.wikipedia.org/wiki/Software-defined_networking

软件定义网络(Software-Definded Networking, SDN)最初来源于2008年左右在加州大学伯克利分校和斯坦福大学的研究工作,而后演化成为一种新型的计算机网络。1 SDN允许网络管理员通过对低层功能的抽象来管理网络服务。具体实现是通过将决定流量从如何发送的系统(控制平面)从底层转发流量到指定目的的系统(数据平面)分离开来。这项技术的发明者们和系统的供应商们认为SDN可以达到简化网络的目的。2

Summery

这其实是一篇暑期总结。

R大开学特别晚,现在离开学也还有两周的时间,但对于大四的学姐来说,开学不开学的确实没有什么区别。暑假的三个夏令营一结束,假期也就随之结束了,就好像上学期期末考完最后一科并没有真正松懈下来,而是连写了两天比赛的代码才算过完了大三。

于是攒了3件T恤,3个姓名牌,收获却几乎为0。R大本身就是去酱油的,深知自己反正也拿不到自己学院内保的资格;CAS被拒,10月则会再去面一次;MS的就是纯玩,比赛悲剧了,拿了些奖品结识了一群丧尸的小伙伴。

安安静静

寝室只剩下了3个姑娘,一个准备出国,两个准备考研。每天大家早出晚归,话也不多,在闷热的宿舍里干着各自的事情,安安静静。偶尔有什么声音,也是窗外北京八月从没有间断的淅淅沥沥的雨。每天去图书馆选一层375附近的位置,遇到几个同考研的同学,打声招呼互相勉励一下,便把头埋进厚厚的数学全书和英语阅读里去。其实是不习惯这样安安静静的生活,总觉得几天没人说话没人一起笑就会把人逼疯,所以要隔三差五还是得邀上狐朋狗友去撮一顿或者玩桌游。能坚持考研下来的人,应该都会花上好一阵来适应安安静静吧,没适应下来的像我一样的不确定玩家怎么感觉都是要玩砸的样子。

微软面试酱油小记

周天中午正在给高中的学弟学妹拍很傻气的高考加油的照片,突然接到电话,说让下周三去微软总部报道面试。当时想我没有进决赛啊于是就很傻兮兮得问为什么我可以去面,那边悠悠得来了句编程之美前100的选手都有一个面试机会,于是在电话里哦了一声,然后很淡定得说了声谢谢把电话挂了。挂掉电话就激动得跳了起来,心想运气真好90+的名次还可以去面一发,要知道之前投暑期PM的实习交简历就直接被刷了连面试机会都木有啊。和我一起的高中同学实在看不下去我这么激动,说又不是面试过了这么兴奋干啥?Whatever,我这种渣渣得到一个面试机会就谢天谢地感动到哭了。

临琼楼

在这个古色古香充满体制内部气息的院子里,想起来万寿寺里的王二。当然我更幸运,既没有车祸失忆,也不用想操蛋的科研课题,更没有书稿里跳出来的薛嵩fucked up my mind. 然而我却比王二更加无奈,并且无聊,做着这份不用面试也没有薪水的实习。正和来之前脑补的一样,无非是用Office软件就能handle的工作,再打上几个电话,无事之余,还能写点题看点论文再接半天导师打来验收repo的越洋电话。抛开无聊的工作内容,也还是有那么几件满有趣的事情,比如北海公园的白塔在多云的白天根本看不清,8点的四号线也并不那么拥挤,事实上每次都能找到座位,事业单位国家机关都坐落在绿荫匆匆古朴幽静的院子里,搞技术的中年人里100%男性+50%胖子+100%不好看,办公室的整洁程度和办公室里的女性比例呈正相关,坐几年办公室整天对着电脑必然皮肤会变得无比黄,Sherlock的魅力老少通吃,每天的疲劳程度和上下班的拥挤程度以及挎包的重量呈正相关…

国家图书馆

前段时间删除了一个记录自己负面情绪的博客,原因大概是当时写下那些文字的人让自己感觉无比陌生且恐惧。但其实在删除那个博客的后几天,里面记录的熟悉的讨厌某个人的感觉又重新出现了。唉,不管我是有多么不愿意面对自己阴暗的一面,就算删掉了所有的证据,那种感觉也会悄悄在心里滋生。所以,如果吐槽星真的存在的话,我想我可能还是有30%的意愿移居到那里去的。

昨天是上个月里生活最丰富的一天。上午考完托福,除了口语答的异常紧张外,其他的部分也没有什么感觉。去年这个时候,一脸沮丧得从考场出来,搭上从大钟寺到明光桥的公交,在心中幻想了无数次扯头发抓狂的情形。

求是

自从这学期养成了早起去图书馆占座的陋习,便很少来求是了。

今天早上做了两个很诡异的梦,一个是梦见自己把专业改成了哲学,然后十分惶恐学分没有修满怎么才能毕业;另一个是在一遍又一遍看着满清宫斗戏,里面的格格太监踩着高跷像是走进了魔方大厦。再醒来时已经快9点了,图书馆的座位已经不好找,公教又挂着博士生入学考试的横幅,本来想心一横去明德,又发现那里要查一卡通男友是进不去的。骑着车围着教二草坪转了一圈,在求是楼旁停下了。

无题

夜深人静狗都不叫的时候最好沉下心来,空调呼呼吹着暖气是唯一的声音。忧郁是唯一的心情,远远不及冷漠无情来得精彩。每每见一些不常见的人,都会心生出一片犹如乌云笼罩的感慨。作为一个不善交际的可能称得上孤独的人,见什么人说什么话自来熟比天书还难学甚至给婆婆爷爷打电话都会踌躇半天的人,各式的亲戚和朋友只会让我心生怯懦。寒假也仅仅和发小以及一群要好的朋友见了两面,其余的时间都在家里盯着无聊的电视,看无聊的电视剧打发时间。打鸡血的时候,会质疑为什么其他人都那样废柴不做正经事;废柴的时候,一面痛恨着自己混吃等死的状态一面又安心地不做改变。就好像冬天会奇怪夏天为何会穿那么少;夏天却又难以理解冬天会裹那么厚。

2013第一篇

最近是期末考试的节奏,无奈我们这个水专业和水选修考试都很渣,渣到想做个复习计划督促下自己,计划定完却发现再玩几天也是可以的……毫无期末紧迫感,所以今天除了看了下韩语笔记什么事都没做。 晚起症依然存在,好伤感。

今天送高中最好的朋友去美国交换一年,其实离毕业快三年了我们几乎什么也都没变,除了我变得异常二逼加怂。她在吉林念书,东北混三年她的普通话也变成了一股东北味,依然很emontional,性格也和以前一样。想起来高中的时候我们冒着被宿管阿姨扣分被班主任当着全班批评的风险,挤在一个被窝里,说着人际关系上的不如意与暗恋某某的小心情,就忍不住想哭。一路上她都在念着,我不想去了,唉在机场买张票会四川吧。想到去韩国和加国之前,好像我都是一路上很淡定毫无兴奋感也无担忧感。

经过检验的应用软件The examined software

在图书馆看关于苏格拉底的一篇文章《The examined life》,越看越觉得人生不值得过。不过对于应用软件来说,好像道理也是一样,套用苏格拉底的话来说就是 The unexaminedsoftware is not worth applicating.未经检验的软件是不值得应用的软件。按下win键发现还是有好些软件在电脑里的存活时间挺长了,也可以算是经过检验了,心血来潮数了数。(排名不分先后)

1.Ginger 英文写作纠错工具,语法检查还行,比较好的是能够根据上下文给出用词的建议。

2.ManicTime

末日前一天

末日前一天的说法其实也不准确,因为玛雅人那地理位置和我们还有大段的时差呢。不过大家其实也不在乎吧,其实都在消费末日图个乐,和11.11一样,弄得好像过节一般,商场也打折,老师学生也都想着好像要放假一样。

今天北京又飘起了大雪,从汇贤提一袋饺子走回东风,地上还是薄薄的亮晶晶的一片。挽着同学小心翼翼地走在雪地上,脑子里冒出来的一个句话是“丰年好大雪”,第二句话是“白茫茫大地真干净”,也不知脑子的反射弧和神经元之间是怎么连接起来的。或许世界上真有什么数字概率上的偶合,一刷广播就看见了87红楼梦的定妆照,又翻到了北京台一个演员25年后聚首的视频,跳着看了下。宝钗的演员真是女强人啊,现在在美国做投资还单身,和陈晓旭的黛玉比起来,和书里又是一种奇怪的映照,只能说演员的性格和戏里匹配的太过于吻合了,R方一定是0.9往上走。

什么都是叠加态

点开看这里发现居然有一个月没有更新了,原来又过了一个月熬夜晚起,毫无成效的生活。

和高中同学说到以后打算干嘛,又一次提到我奇葩的考研决定,对方唏嘘不已,尔后又感叹了句生活的无常。想到高中的日子,真是简单快乐得可怕,当然得先抛开大山一样的学习压力。那时候是什么都敢憧憬,什么都敢幻想,打打闹闹,一晃就过了三年。

不过现在二十来岁的年龄,其实内心也没有长大,相比于十五六岁,也只是为未来多了一份可有可无的担心而已。但奇怪的是,所有人都希望自己看起来能独当一面,是足够qualified做任何事的,而这样的形象却让我联想到小时候眼中无所不能的爸妈。

20121013

我从来都是一个不善言谈的人,同样对人际关系的知识也一窍不通。最感到奇怪和生涩的瞬间,是突然遇到一个半熟不熟的人,然后在心理默想是打招呼还是低头装没看见。

其实这样也不算太差,因为大部分的人际关系只需要真心得笑笑就好,以及接过别人的话题评价几句话。况且不是很亲近的人,也根本不在乎之间说了什么。

但是我还有一个致命的毛病,就是无比健忘,总是忘记一些重要的日子和重要的人。总是在心中空想,但在必要的时刻却忘记了。 不知道是不是这样的自己很容易让人失望,所有的人际关系中我从来都不会是主动的那一个。总是缺乏自信去接近喜欢在乎的人。可能也会怕麻烦,因为望着别人的脸我总是不知道要说什么才好。

10月第一日图书馆

这个假放得十分平静,没有像大一大二一样天南地北到处玩,而是窝在冷清的学校,兜兜转转假装放松几天。 一放松就到了9号,今天终于到图书馆来自习了,带了电脑忘带电源,最近记性越来越差,老是觉得掉了东西。去能上网的地方找了台电脑,磨磨蹭蹭也没有做什么事,一个下午就这样过去了。

昨天从北邮骑车回来,骑到皂君庙东路。之后便一直在想皂君庙会是个什么寺庙,听上去是道教寺庙的样子,因为觉得太上老君和皂君说不定有什么渊源。百度了下才知道,“皂君”原来是“灶君”的谐音,文革破四旧那阵被改的。现在皂君庙早就不在了,只空留一个路名,一个公交站,好给我这种骑车路过的无聊之人提供遐想的素材。

多出来的 50% Imagination ——读《思考的乐趣》

最初发在豆瓣上: http://book.douban.com/review/5577939/

和许许多多搞OI的一样,对Matrix67这个名字感到熟悉一点也不意外。记得是高中的某次OI课上,老师发给我们一个前辈留下来的压缩包,里面是各种代码,笔记,解题报告等资料。

解压开,却看到一个十分纯粹而苍白的txt文件,没有任何好奇心地点开,txt里是一系列学习资源的网站链接,有题库,有OJ,当然还有许多大牛的博客。鼠标继续点,一一打开这些链接,却在这个 www.matrix67.com/blog 链接中停止了鼠标左键的行为。对于一个刚刚学习OI不久,Matrix67绝对是我们心目的神牛级人物(其实学习了几年OI之后一样是神牛级人物),但看博客里的文章关键词,就已经足以让我们大呼ORZ。那时候的我还不知道Ctrl+D快捷键,于是直接鼠标右键-添加到收藏夹。

而后的高中生活便多了一项日常惯例,那便是用诺基亚5320里的UC浏览器,每日刷这个博客的更新。高中用电脑的机会仅仅是竞赛课,只有爪机是知晓外界情况的唯一途径。就连我第一次接触RSS订阅,也都是5320手机自带浏览器的源订阅,后来由于Matrix67很多文章里精美的图片是在太大,RSS又不会压缩图片,导致流量用得飞快,才不得已放弃RSS,转为UC里的手动刷新。总之,每天午睡和晚上熄灯后,总会拿着手机,晚上还得忍者屏幕的强光,读着那些令人思考而后拍案叫绝的文字。