今天李开复来了,有两场报告。颇具启发意义。设想了一下WEB X.X。GOOGLE似乎在做一种信息收集的工作,看过MGS 2的人应当知道超级计算机G.W.,美国政府使用它对信息流进行删除和过滤,也就是说,谁掌握了信息就掌握了政权。GOOGLE不是正在做吗?
以上都是胡思乱想+胡言乱语,看看比较真实的。首先我要对WEB 2.0提出质疑。香农在《信息论》中提出信息是熵的一种表现,也就是说,信息本身是一种无序结构。为了使信息呈有序化排列,我们必须做功。这里就不得不提到分布式计算。其实WEB 2.0仅仅是将WEB 1.0时代搜索引擎做的事情分给了很多很多的人去做,并且给信息一个可识别分类的内容属性。然后经过FEED和RSS传递到各个信息终端。随着第二代互联网的建设和发展,网格似乎成为必然。但是所谓WEB 2.0,其信息的存储依然依赖大型服务器而不是以节点方式连接的终端。所以这种方式依然带有门户时代的特色。
真正的WEB 2.0应当依托第二代互联网的优势,实现数据的分布式存储。分布式存储可能是继分布式计算之后的一个新的发展热点,但是由于目前网络传输条件的限制,暂时还不可能大规模地普及。也许将来在WEB X.X时代,信息将以信息流(Infomation stream)的形式在各个节点和终端之间流动,自生自灭……