メリッサ(melissa)とガレス ピュー(Gareth Pugh)がコラボレーションした新商品が、2014年5月6日(火)までドーバー ストリート マーケット ギンザ(DOVER STREET MARKET GINZA)の6階にて期間限定で発売。今回ドーバー ストリート マーケット ギンザで発売されたアイテムは、ガレス ピューの特徴である幾何学的なプリント【2014年モデル Mammut】マムート レッドバーン レディース Mammut Redburn Womenが使用されたフラットシューズ、トングサンダル、厚底シューズを展開。プラスティックのシャープなカッティングやモダンな模様が、アーティスティックな印象に仕上がっている。
ブラジル発のブランド、メリッサは自ら開発した再生可能なプラスティック素材を使用してカラフルなシューズを制作。独自のデザインのみならず、カール ラガーフェルド(Karl Lagerfeld)、ヴィヴィアン?ウエストウッド(Vivienne Westwood)といった世界的なファッションデザイナーや、『星の王子様』を手がけたアニメーション作家、ザハ?ハディッド(Zaha Hadid)といった建築家まで幅広いアーティストたちとコラボレーションを行っている。昨日19時頃バイドゥのIPアドレスから短時間のうちに30万回を超える不審なアクセスが弊社のサービスにありました。繋がりづらくなり利用者の方に大きな迷惑がかかりました。DoS攻撃として被害届を出すことも検討してます。アクセスの意図など早急に説明をお願いします
この問い合わせに端を発した開発者側と百度側のTwitter上でのやりとりは、Togetterまとめで参照することができます。 残念ながら、開発者側で納得できるような回答は百度側からは提示されずに現時点に至っていることが分かります。興味深いのは、このやりとりから百度がどういう形で不審なアクセスをしていたのかが開示されているところです。まり御社のクローラーは公式サイトに記載はない、UAはPython-urllib/2.7。robots.txtは無視し、アプリの内部や通信経路からURLを取り出し、1秒間に10~100回アクセス。毎回IPを変え、不審な動作をするという公式回答でいいんですか
Web系エンジニアにとってみればかなり初歩的な知識になりますが、ここで出てくる「robots.txt」というのは、Google等に代表されるロボット型検索エンジンに対して、このサイトは検索してデータベースに登録しないでくださいと命じるための宣言文です。通常、この明示があればサイト内をクロールしないのがネットでのエチケットですが、当然ながら悪意のある輩であればそれを無視して検索することもあり得るわけでして、今回問題となっている百度のクローラー(検索ロボット)はそこを無視したということになります。robots.txtについては、百度のサイトになぜか詳しい解説があるので非常に参考になります(棒)。 で、今回の件がさらに悪質だと感じるのは、件のサーバーへ百度が不正アクセスを行う際に使った検索キーが、百度の日本語入力アプリを利用しているユーザーの入力ログをそのまま生で使っている可能性が見られる点です。
検索エンジンは、robots(またはspider)と呼ばれるプログラムが自動的にインター ネットのサイトにアクセスし、ページの情報をクローリングするものです。サイトに robots.txtというテキストファイルを作成し、このファイルに検索エンジンにクロー リングされたくないサイトの部分を明記すると、検索エンジンは該当部【2013年モデル Mammut】マムート レッドバーン レディース Mammut Redburn Women分の内容を クローリングしないようにします。また、robots.txtのCrawl-delayフィールドにより、 Baiduspiderのクローリングの頻度を制限する事が可能です。また、クローラーが毎回IPを変えていたのは、単純なアクセスブロックをかわす目的があったのではないかと疑われます。
No comments:
Post a Comment