发布新日志

  • env: g++: No such file or directory

    2009-04-17 14:17:38

    Ubuntu  8.04 在编译CPP文件的时候,容易出现这个错误

    排除的方法是,查看系统安装了几个G++工具,生成Makefile的时候,默认是使用最新的,只要指定老的编译器即可

    最新的编译是G++-4.2 别使用这个哦,要使用g++-3.4这个版本

  • linux install sun's java

    2009-01-08 13:57:16

    apt-get install sun-java6-jre sun-java6-plugin sun-java6-fonts sun-java6-jdk
  • 搜索引擎的原理

    2008-12-17 17:04:51

    搜索引擎的原理,可以看做三步:从互联网上抓取网页→建立索引数据库→在索引数据库中搜索排序。  
      1. 从互联网上抓取网页
        利用能够从互联网上自动收集网页的Spider系统程序,自动访问互联网,并沿着任何网页中的所有URL爬到其它网页,重复这过程,并把爬过的所有网页收集回来。

      2. 建立索引数据库
        由 分析索引系统程序对收集回来的网页进行分析,提取相关网页信息(包括网页所在URL、编码类型、页面内容包含的关键词、关键词位置、生成时间、大小、与其 它网页的链接关系等),根据一定的相关度算法进行大量复杂计算,得到每一个网页针对页面内容中及超链中每一个关键词的相关度(或重要性),然后用这些相关 信息建立网页索引数据库。

      3. 在索引数据库中搜索排序
        当用户输入关键词搜索后,由搜索系统程序从网页索引数据库中找到符合该关键词的所有相关网页。因为所有相关网页针对该关键词的相关度早已算好,所以只需按照现成的相关度数值排序,相关度越高,排名越靠前。
        最后,由页面生成系统将搜索结果的链接地址和页面内容摘要等内容组织起来返回给用户。

       搜索引擎的Spider一般要定期重新访问所有网页(各搜索引擎的周期不同,可能是几天、几周或几月,也可能对不同重要性的网页有不同的更新频率),更 新网页索引数据库,以反映出网页内容的更新情况,增加新的网页信息,去除死链接,并根据网页内容和链接关系的变化重新排序。这样,网页的具体内容和变化情 况就会反映到用户查询的结果中。

      互联网虽然只有一个,但各搜索引擎的能力和偏好不同,所以抓取的网页各不相同,排序算法也各不相同。大 型搜索引擎的数据库储存了互联网上几亿至几十亿的网页索引,数据量达到几千G甚至几万G。但即使最大的搜索引擎建立超过二十亿网页的索引数据库,也只能占 到互联网上普通网页的不到30%,不同搜索引擎之间的网页数据重叠率一般在70%以下。我们使用不同搜索引擎的重要原因,就是因为它们能分别搜索到不同的 内容。而互联网上有更大量的内容,是搜索引擎无法抓取索引的,也是我们无法用搜索引擎搜索到的。

      你心里应该有这个概念:搜索引擎只能搜到它网页索引数据库里储存的内容。你也应该有这个概念:如果搜索引擎的网页索引数据库里应该有而你没有搜出来,那是你的能力问题,学习搜索技巧可以大幅度提高你的搜索能力。

  • c/c++ 学习网站

    2008-10-17 11:31:14

    http://www.codeguru.cn/
    好东西
  • 今天终于悟出API ,测试的精髓了

    2008-10-17 10:48:54

    以前对API的测试,整天稀里糊涂的,最主要的原因是没有读懂代码,呵呵,只是知道这些api的功能,唉,这就好像只能看到人的外表,对其内在东西,都看不到
  • undefined reference to `std::ios_base::Init::Init() 解决

    2008-10-13 12:47:39

    在linux下编译c++ 程序要使用g++ 编译器,如果你要是使用gcc编译器就会有上面的报错信息,只要在在gcc后加上 -lstdc++就ok了

    eg:  g++ example.c -lstdc++
Open Toolbar