URLダミーです。
基本的にそういうことは無いと思います。
と、いうよりは厳格に細かくXMLの文章情報などを記述すれば、SEO的には通常のHTMLより有利だと思います。
ただ僕個人の感覚としては、そう細かく書くのはなかなか難しいので、結果として変わらない、というのが実際だと思います。
URLはダミーです。
Googleなどのロボット検索系のものは、
ロボットが自動的にwebページを巡回して
記録していくものなので
文字があるサイトなら必ず引っかかります。
よって、XML形式だからといって
引っかかりにくくはならないと思います。
よは、いかに的確な絞り込み検索ができるかということでしょう。
とても興味深いです。ありがとうございました。
http://google.client.jp/kouza/head.html
SEO対策HTML講座 - HEADタグ / ヘッドタグ
現在の検索エンジンはhtmlのtitle要素や、meta要素のkeywordsなどを比較的重要視している(と推測される)と言われています。
その意味ではhtmlよりも不利かもしれません。
が、実際のところxml+xsltで作成されたページを検索エンジンがどう扱っているかは、企業秘密なわけなので上記は誤りかもしれません。
あるサイトと「そのサイトのrss+xsltで構成されたページ」とで、検索のされ方を試して見てみたかったのですが、なかなかちょうどいいサイトが見つけられませんでした。なので推測の域を出なくて申し訳ありません……。
ところでXML形式のWebページって、XHTMLではなくて、xml+xsltのページと理解してよかったでしょうか? そのつもりで回答しています。
勉強になりました。ありがとうございました。
XSL Transformations (XSLT)
XSLTによるローカル変換をしていると既存の検索エンジンは
XSLTによるローカル変換に未対応のため
サイトのトップはひっかかりますが
ほかのページが全く引っかからなくなります。
XMLの利用もあまり深入りするとSEO面で不利な場合があります。
またほかにもあります。
CSSのcontentプロパティを利用してメニューを付加したりした場合も
同様の問題が起きる場合があります。
基本的にXMLファイル自体に全てのリンクが含まれていればSEO面では不利にならない。
XSLTによるローカル変換やCSSのcontentプロパティ等によるコンテンツの付加等
サーバーから送られるものには存在しないものをローカルで作り出すとSEO面で不利になるということです。
こういったローカルで作り出す行為は負荷分散という観点から見れば正しいのですが
XSLTにしろCSSにしろとても複雑な技術でこれらを扱うことが
主たる目的になっているWebブラウザですら完全に実装できているものは存在しません。
これは技術的にやむ終えないものです。
「トップページを徹底的にSEO最適化をして後は内部検索で」といったある程度の妥協をするか
「全ての負荷をサーバーに背負わせる」といった妥協が必要になります。
ありがとうございました。
ありがとうございました。参考になりました。