![]() |
zunbe |
![]() |
|
![]() |
2005年8月 | 2005年10月 | ![]() |
| [<<先頭] [<前へ] [ 1 2 3 4 5 6 7 8 9 10 11 ] [次へ>] [最後>>] | ||
|
どうでもいい話をひとつ。
ずんべは、書籍を購入する場合、Amazon で買うことが多い。
Amazon は、ときどき、こんなキャンペーンをやっている。
Amazon.co.jp 布製オリジナルブックカバー プレゼントキャンペーン
一定金額以上を購入すると、Amazon 特性のブックカバーがもらえる。
このカバー自体も Amazon で販売(ブラック、ボルドー、ベージュ、ブルー)していて、価格は \273 と別に高いものでもない。
先日、何冊か購入したのだが、このキャンペーンに気が付かずに購入してしまった。
数百円の事だが、なんか、損した気分。(^^;
やっぱ、ずんべは小市民です。
このエピソードはいかがでしたか? ![]() ![]() | ![]() |
投稿者 zunbe : 2005/09/24 01:17:41 | コメント (0) | トラックバック (3)
2005/09/23
|
このエピソードの続き。
Googlebot がやってくる
Technoratibot がやってくる
アクセスログを確認したところ、Googlebot も、2005/09/22 以降から atom.xml を拾いに来ているようだ。
この日から、Google がこのサイトをブログとして認識したのか…。
それとも、ずんべの思いが通じたか…。(^^;
Google 君、すごい。
■参考資料
![]() Google hacks |
このエピソードはいかがでしたか? ![]() ![]() | ![]() |
投稿者 zunbe : 2005/09/23 15:48:37 | コメント (0) | トラックバック (0)
2005/09/22
|
今日も、こんな事があった。
社員に、RSSデータを出力するプログラムを書かせた。
タイトルや本文を出力する際に、改行やダグが入っているので、「CDATA」を使用して、元データをそのまま出力するように指示をした。
たとえば、以下のデータである。
-- タイトル --
ずんべ
の日記
--
このデータで、社員が作成したプログラムから生成したRSSデータはこうだ(かなり省略)。
この XML は、元のデータがそのまま出力されていない。
どこがそのまま出力されていないかというと、タイトルと本文の前後である。
XMLのソースを見てほしい。なぜか、タイトルの改行が挿入されている。
つまり、この様にデータが加工されているのである。
-- タイトル --
(改行)
ずんべ
の日記
(改行)
--
明らかにオリジナルのデータと異なる。
社員に、なぜデータの前後に改行を挿入したのかと聞くと、こうのたまう。
「ブラウザ(IE)で見ると改行されていますので、挿入しました。」
いったいぜんたい何を言っているのだろうか。
ブラウザで見た結果が改行されているからといって、なぜ、ソースも改行されていると考えるのだろうか。
ブラウザはビューワであり、我々が見たときにわかり易い様に加工して出力するツールである。当然、ソースコードのイメージのまま出力されているわけではない。
ちなみに、正解のRSSデータはこうである。
ただ開いただけでは、差はわからない。ブラウザで見る限り、見た目は同じに見える。
しかし、それぞれのソースを覗いてみればわかる。前者のRSSデータは、明らかに余計な加工がされている。
テキストエディタで見る事と、ビューワで見る事の違いぐらい、わからんものなのだろうか。
このエピソードはいかがでしたか? ![]() ![]() | ![]() |
投稿者 zunbe : 2005/09/22 13:41:02 | コメント (0)
|
Technoratibot って何でしょう?
何者なのか、ずんべも知らなかったのだが、どうもブログ専門の検索エンジンらしい。
このロボットは、検索キーワードの取得方法が、ブログならではの方式になっている。
Google や Yahoo などの一般的な検索エンジンでは、HTML上のリンクをたどりながら、ページをクロールしていく。
ところが、Technoratibot ではHTMLのリンクをたどる事はしないようだ。
アクセスログを見ると、atom.xml、index.rdf、index.xml などのRSS情報を拾っていっている。
一応、/ も拾っているようだが、HTMLのリンクをたどった形跡はない。
これなら、ブログの記事だけを拾い集め、ページにくっついているバナーなどの余計な情報はカットできる。なるほど。
一応、/ も拾っているのは、ページの名称とか、<META>を拾うためだろう。
これはぜひ、Google や Yahoo でも採用してほしい実装だ。
ただ、RSS情報だけを拾っているという事は、古い記事は検索情報として登録されない点は不満が残るところか。
まだ登録されているサイトが少ないせいだろうか、データベースへの登録も早い。
アクセスログでは、2005/09/22 にクロールされた事が記録されているが、今(2005/09/22)にサイトにアクセスして検索すると、もうヒットする。
このエピソードはいかがでしたか? ![]() ![]() | ![]() |
投稿者 zunbe : 2005/09/22 08:56:39 | コメント (0)
|
プロバイダの hi-ho から、ニュースレターが届いた。
いつもと違い、何やら添付ファイルみたいなものがくっついている。
新手のスパムか、ワームか。
しかし、メール本文は普通のニュースレターだ。
くっついているアイコンをよく見ると、どうも添付ファイルではない様だ。
どうもセキュリティ署名らしい。
開いてみると、確かに証明書が表示される。
ベリサインなどで、電子メールの証明書を発行しているのは知っていたが、本物は始めて見た。
近い将来、電子メールに証明書を付けるのは当たり前になって、証明書が付いていないメールは、無条件にゴミ箱にポイッ!という時代が来るのだろうか。
このエピソードはいかがでしたか? ![]() ![]() | ![]() |
投稿者 zunbe : 2005/09/22 04:40:32 | コメント (0)
| [<<先頭] [<前へ] [ 1 2 3 4 5 6 7 8 9 10 11 ] [次へ>] [最後>>] | ||