分类目录归档:不是技术

巴西世界杯,各联赛贡献,6-16:西甲靠点球优势占据榜首,英超颗粒无收,意甲、德甲稳步上升

截至今天巴西世界杯的进球,按照进球者所在联赛做了简单的统计,目前西甲凭借点球多的优势上来了,今天英超颗粒无收,而德甲收获两个进球。

计算五大联赛,不小心墨西哥联赛的总进球超了法甲:

西甲 7 内马尔2(1点球) + A.桑切斯 + 阿隆索 + 本泽马2(1点球) + 梅西 (未计算马塞洛的乌龙)
英超 6 范佩西2 + J-坎贝尔 + 奥斯卡 + 博尼 + 斯图里奇
意甲 6 巴洛特利 + 阿尔梅罗 + 热尔维尼奥 + 马尔基西奥 + 本田圭佑 + 塞费罗维奇
德甲 4 罗本2 + 穆罕穆迪 + 伊比舍维奇 (未计算科拉西纳茨的乌龙)
墨西哥 3 博塞茹尔 + 佩拉尔塔 + 恩纳-瓦伦西亚
法甲 2 罗德里格斯 + 卡瓦尼

西甲领先的主要原因还是点球优势,也说明皇家马德里和巴塞罗那的球员在各自国家队中的地位不容小觑。
西甲的世界杯进球也全部在这两个大球会中产生。

再过两天,随着球员状态定型,估计几大联赛的排位就可以基本确定。

巴西世界杯,各联赛贡献,6-15:略占上风的英超

截至今天巴西世界杯的进球,按照进球者所在联赛做了简单的统计,目前英超以微弱优势领先,意甲紧随其后,西甲第三。

只计算前五大联赛:

英超 6 范佩西2 + J-坎贝尔 + 奥斯卡 + 博尼 + 斯图里奇
意甲 5 巴洛特利 + 阿尔梅罗 + 热尔维尼奥 + 马尔基西奥 + 本田圭佑
西甲 4 内马尔2 + A.桑切斯 + 阿隆索 (未计算马塞洛的乌龙)
法甲 2 罗德里格斯 + 卡瓦尼
德甲 2 罗本2

德甲暂时落后的原因很大原因是德国尚未出场。

幼儿教育

我是自认幼儿教育很有办法的,于是就拿CC来做实验了。
不过CC还算争气,2岁多一点就把26个字母认全了,而且是很自然的认知过程。

之前带他认的是大写字母,也没打算专门教小写字母,但他自己玩着多多的字母,就把小写字母也认得差不多了。

最近下了一个toddler,让小孩看或听题目,然后选择答案,包括数数,颜色,形状,字母等,虽然是英文旁白,但我会在旁边翻译,CC也能玩得挺开心,尤其是答对的时候。

不过还是胆小,对自己的答案不敢大胆点下去,也许爸爸在旁边始终会给他一点压力吧。

Leetcode

这几天利用一些闲暇,在网上刷leetcode, 顺便补一下一直当c用的c++。题目本身一眼就看明白了,只是在想实现最快的方式,以及时间复杂度,空间复杂度如何更优。

std用来做题还是很有优势的,至少sort已经成为几乎必用的函数。。。

中文博客的提交渠道

主要是为了加快搜索引擎的收录效率,最好还是博客的主人或网站管理员到各大搜索引擎提交一下收录。一般来说,这个功能网站管理员在搜索引擎上管理自己的网站的功能之一:

  • 提交网站
  • 提交sitemap
  • 检查索引状态
  • 检查内外链状态
  • 设置页面抓取规则、速度
  • 检查404的情况

几个流行的中文搜索引擎的网站管理:

google: https://www.google.com/webmasters/ google帐号登录
bing: http://www.bing.com/toolbox/webmaster live帐号登录
baidu: http://zhanzhang.baidu.com/ hi帐号登录

 

测试一下离线文章的草稿功能

其实只是想看看wordpress的这个apps能否进行离线文章撰写,可行的话,就可以完全当成草稿的编辑功能。

由于google的服务持久性实在不能给人什么强信心,因此不大指望google doc完成这样的功能。
而blog对我来说,又是一个应该可以持续多年的公开型个人日记的需求,所以wordpress+apps的组合可以算是与时俱进了。

我现在明白wordpress的生命力所在了,一个同时提供技术和服务的网络服务运营商。所以也不难理解为何微软会将live迁移到wordpress了。

说回这些BSP,我们实在不能指望google,microsoft,apple这些上市的巨头长期免费的提供低附加值的blog服务,更何况blog服务一旦呈现免费开放状态,作者们其实是可以独立盈利而无需为BSP付费。

所以开源wordpress在技术人群以及小型BSP中继续生存,而wordpress.com的服务也并不是那么理想,正好把空间留给自建wordpress。

这也许也是很多开源CMS的未来了。

从博客大巴导出全部文章

其实如果blogbus能提供一个完整的导出工具,我就不需要自己花1个小时去写和测试这个代码。文件头尾需要加一下才是完整的rss文件。然后用wordpress的RSS importer就可以了。

另外,如果正文中带有链接,而链接中又含有非ascii字符,HTML parser也会失败。

export.py内容如下:

#!/usr/bin/env python
# Author:polo@live.cn
# coding=utf-8
import httplib
import re
from HTMLParser import HTMLParser

class MLStripper(HTMLParser):
    def __init__(self):
        self.reset()
        self.fed = []
    def handle_data(self, d):
        self.fed.append(d)
    def get_data(self):
        return '\n\n'.join(self.fed)

#strip html tags
def strip_tags(html):
    s = MLStripper()
    s.feed(html)
    return s.get_data()

#fetch a blog's meta data, and append to xml file, and return the previous blog's url
def fetch_blog(surl):
    conn = httplib.HTTPConnection('zhengrenchi.blogbus.com')
    conn.request('GET', surl)
    rep = conn.getresponse()
    preurl = ''

    if rep.status == 200 :
        content = rep.read()
        content = content.replace('\n', '')
        content = content.replace('\r', '')
        r = re.compile('postHeader">.*?<h2>(.*?)</h2><h3>(.*?) \| Tag:(.*?)</h3>.*?</div>')
        s_match = r.findall(content)
    
        for k1 in s_match:
            title = k1[0]
            time  = k1[1]
            tags  = k1[2]
            r = re.compile('<a href.*?>(.*?)</a>')
            tagsa = r.findall(tags)
    
        r = re.compile('<div>.*?<p.*?</p>(.*?)<div>')
        r1 = re.compile('<div>.*?<p.*?</p>(.*?)<div>')
        s_match = r.findall(content)
        if s_match:
            for k1 in s_match:
                body = k1
        else:
            s_match = r1.findall(content)
            for k1 in s_match:
                body = k1

        r = re.compile('<span><a href=\'(.*?)\'>')
        s_match = r.findall(content)
        for k1 in s_match:
            preurl = k1

        outfile = open('blog.xml','a+')
        outfile.write('<item>')
        outfile.write('<title>' + title + '</title>')
        outfile.write('<pubdate>' + time + '</pubdate>')
        #print body
        outfile.write('<description><![CDATA[' + strip_tags(body) + ']]></description>')
        for k2 in tagsa:
            outfile.write('<category>' + k2 +'</category>')
        outfile.write('</item>')
        outfile.close()

    conn.close()
    return preurl

#set the original url
xurl = '/logs/228488258.html'

while (xurl != ''):
    print xurl
    xurl = fetch_blog(xurl)

技术自找的麻烦

我丈母娘从内地过来深圳,两个习惯改变不了:一个是打麻将,另一个是买地下六合彩。

然后我才知道原来地下六合彩有这么丰富的玩法,用的是香港赛马会的结果,但中奖规则则被这些底下庄家修改得更容易中奖和吸引人。也衍生了一堆相关的信息产业。

其中有提供各种图文并茂的六合彩经。

于是我的噩梦来了。

这些提供六合彩经的网站,有时候维护不力,连不上;有时候被360屏蔽,有时候又被政府屏蔽。

丈母娘就把这些问题归咎于我给她用的电脑不行……

几天前电脑的显示器坏了,因为用了五六年了,我觉得也很正常,就说,不如改用家里多出来的ipad来看吧。

连上和操作浏览器都没问题,但这个网站居然在非IE的环境下会出exception,然后1秒刷新一次……

那就是没法看。

我把js禁了,发现显示链接内容的部分就是调的js,这招不行。

逼着出大招,就在vps开了个页面,把这个网站的内容都proxy过来,把刷新改成一个小时……然后发现IOS对js跨域有限制,那就再来把js也proxy过来。

终于好了,除了页面显示再慢了一点。

可我丈母娘还是怀疑这数据不对……因为不是她要的网址。

用不用拉倒。