複雑なホームページ

今日の主流はディレクトリー型ではなくロボット型のしくみを 持った検索エンジンでありますが、その大きな理由の1つが掲載サイト数の絶対的不足です。インターネット上には無数のウェブサイトが存在する上、その数は年々増えている傾向にあります。近年であればブログやソーシャルメディアを通じて大量にページが生成されていき ますので、数百億という規模のページが存在しているはずです。ところで、Google やYahoo! がカバーして いるインデックス (ウェブページのデータベース)は200億前後といわれていますから、機械的に収集するロボット型でさえ、半分もカバーしていないことになります。
この膨大な量のウェブサイトから優良なものを選択し、人間の手だけで集め構築することは不可能です。人間に頼ったウェブサイトの収集には限界があるのです。

②検索が不便
Yahoo! は 1日に1回しか入力されないユニークキーワードは63%にのぼるというデータを出しています。つまり生活インフラの1つとなった検索サービスでユーザーが入力するキーワードは非常にバリエーションが多いことが伺えます。
しかしディレクトリー型検索エンジンが探し出せる対象は、後述するロボット型と比較すると非常に貧弱です。キーワードを入力して検索を実行すると、ディレクトリーに掲載されたウェブサイトの見出しまたは紹介文、あるいはカテゴリー名からキーワードに合致したものを検索結果として表示します。

コメントを残す

メールアドレスが公開されることはありません。 * が付いている欄は必須項目です