日記
バックナンバー

[先月] [目次] [来月] [最新版] [表トップ] [裏トップ] [digest]

2004年3月16日(火) 「オタクだからこそ女の子をまもります」
あんよさんからこれ

オウムだからこそサリン撒きません」とかいうのと同じかな?
ここらへんはgoogleで検索できるのね。

2004年3月19日(金) コンテンツフィルタリング
個人的にはあまり好きな話題でないので、まじめに追ってないのだが、ここから、コンテンツフィルタリングの話題。

コンテンツフィルタリングは、親が子供に有害なコンテンツを見せないため、また雇用者が業務と無関係なコンテンツを従業員に見せないために利用される(日本では後者での利用が多いようだ)。

かつては、あるURLへのアクセスを禁止する(ブラックリスト)とか、あるURLにしかアクセスさせない(ホワイトリスト)とかを組織などが独自に作成、メンテナンスし、それに基づいてフィルタリングしていた。しかし、現在のWWWページの数は莫大であり、しかも日々新しいページが公開されている現状からいって、リストのメンテナンスにかかるコストは膨大である。

そこで、「レーティング」と呼ばれる数値を併用する方法が使われるようになった。これは、各コンテンツの内容についてある決められた指標で評価し、その上で「このコンテンツにはアダルト表現が3含まれています」といった情報をデータベースなどに蓄積していく方法である。情報の閲覧を許可ないし不許可する立場の者(先の例なら親であったり雇用者であったりするだろう)は、例えば「アダルト表現は3以下までなら閲覧を許可する」という風にポリシーを定めるだけで、ある程度のフィルタリングが可能になる。

これを実現するためには、誰かがレーティングのデータベースを維持管理していかなければならないが、現在では非営利団体によるもののほか、商用のサービスが数社存在している。その一方、コンテンツ製作者が自分のコンテンツのレーティング値をコンテンツに付与し、それを判断材料にしてもらおうという考え方(セルフレーティング)もある。
ちなみに、レーティング情報の書式などについてW3Cが決定した規格がPICS(Platform for Internet Content Selection)であり、これは第3者によるレーティング、セルフレーティング双方に対応している。ところで、PICSで規格化されているのは、あくまで書式などに関する部分である。つまり、情報をどのようにカテゴライズするか、また、どの程度の情報にどの程度のスコアを付けるか、という点は規格化されていない。このあたりの規格は、ICRA(英国)、SafeOnline2(インターネット協会、日本)、Webburbia(なくなったかも知れない)、RSACi(RSAC、米国、ICRAに吸収された)あたりが有名である。一方、商用データベースではそれぞれ独自基準に基づいて規格化されていると思われる。

さて、前述のICRAはじめ、相当数の人々が、セルフレーティングの普及に努めているように見受けられる。「自分のコンテンツが一部の人にとっては不適切であるなら、その人達にかようなコンテンツであることを(彼らが見る前に)知らせるべきであり、そうすることによって自分たちの表現の自由が守られる」というのが、セルフレーティングを普及させようとしている人たちの主な意見である。

ただし、セルフレーティング方式はうまく動作しないと私は考える。コンテンツ製作者は、自分のコンテンツに対して多くの人のアクセスが欲しい。特にアダルトサイトなどにおいては、「見」なくてもHTTP requestが飛んでくればそれで十分である(アクセス数で広告が入るから)わけだから、適切なレーティング値を付けることでアクセスを減らすようなことは絶対にしないだろう。そして、このような「嘘のレーティング」を表示するサイトが少しでも存在するならば、この方式は実用に耐えないと判断されてしまう可能性がある。

#利用者サイドから言うと、このシステムではコンテンツ製作者が正しいレーティングを付けていることを信用しないと機能しない。だが、インターネット上でサイトを開いている人々をそうもやすやすと信用してしまって良いのだろうか?

ついでに。
コンピュータがコンテンツを理解し、それに基づいてフィルタリングすれば、上記の問題は解消する。テキストについては、恐らくBayesの定理を利用すれば、99%程度の精度でのフィルタが可能だろうが、それ以上は困難かも知れない。一方、単純に「禁止ワード」が入っているページへのアクセスを禁止する、と
いうアプローチを取ると(例:キッズgoo)、相当に無理のある規制を行わざるを得ず、結果として本来表示されるべきコンテンツがフィルタされてしまう

参考:キッズgooフィルタを通すとアクセスできなくなるサイトの例

あと、画像についても研究が進んでいるようだが、ポルノ画像と相撲の画像の区別がつくようになっただろうか?

あと1つ。
今、目的を「子供が不適切なコンテンツに触れない」ことに限定するものとする。コンテンツフィルタはどんどん進化し、ある時、フィルタをかければ一切の不適切コンテンツへのアクセスが禁止されるような状況が来るかも知れない。一方、このフィルタは子供向けのものだから、その子供が大人になったらそのフィルタを利用しなくなる。それにより、今まで見られなかった情報を目にするようになるだろう。このように、ある瞬間から情報を解禁されると、今まで「不適切な」情報を見てこなかったわけだから、大人であるにもかかわらず、その情報が「適切」か「不適切」か判断できなくなってしまうかもしれない。一方、子供のときから「不適切な」情報に触れて育った場合には(いろいろ問題はあろうが)大人になった時には、情報の選別が出来るようになっている(情報リテラシーとか呼ばれてますね)かも知れない。本来なら、このどちらが好ましいのだろうか。
2004年3月23日(火) インターネット ルール&マナー検定
財団法人インターネット協会によるインターネット ルール&マナー検定(2004年春版)が公開されています。ネット上で自分の身を守るためのスキルが身についているかどうか、という試験で、受験自体は無料ですので、受験してみて、間違えたところを確認しておくと良いでしょう。一見、易しそうに見えますが、合格点は90点(100点満点)と厳しめですので、以外と合格できないのではないかと思います(ちなみに、私は92点でした)。

[先月] [目次] [来月] [最新版] [表トップ] [裏トップ] [digest]

mimori@puni.net

Akiary v.0.42+puni.net patch 0.3