古い記事
ランダムジャンプ
新しい記事
この問題、いろいろと注意しないといけませんね。

下記記事、タイトルだけで状況が分かるのはさすがネタフル。何かのNG語かもしれないので一部伏せ字にしてあります。

- [N] 息子(4歳)のち○○ん丸出し画像をGoogle+に自動アップロード → 性的コンテンツとしてGoogleアカウントが削除
http://netafull.net/google/043861.html

で、アカウント削除されてしまった人の記事。

- tappli blog: Googleアカウントを消されてしまった話
http://blog.tappli.com/article/69534410.html
自分がまずかった(と思っている)のは、Google+のインスタントアップロード機能がONになっていたことです。

単にアップロードしただけで、全体に公開したわけではない。肌色の割合とかで自動判別しているのかなあ。しかしほんと怖いね。

Eye-Fi などの写真自動アップロード系もやばいかも。公開設定のミスですべて終わる可能性高いし、非公開でも自動判別でアウトになるかもだし。

こんな話題もありましたが、関係ないとばっちりに対する対応もしっかりお願いしますね。いや、ほんと。

- グーグル、ウェブ上の児童ポルノ撲滅に向けデータベース構築へ (CNET Japan)
http://japan.cnet.com/news/business/35033489/

先日の私の息子の動画の件もリンク張っときますね。YouTube で生まれたばかりのうちの子の動画(裸)を載せていたら削除されたってやつね。

- [を] この世に生まれて5分とたたない赤ちゃんでも児童ポルノになるんでしょうね[2013-06-14-1]

みなさんも気をつけましょうね。自分が撮影するときに気をつけるだけでなく、子供がおもしろがって裸を勝手に撮影して自動アップロードになって……、なんてケースも注意しないとね。

つか、アップロード関係なく、データが手元にあるだけでも何かの際に見つかったら……、と思うとおちおち子供にカメラなんて持たせられないかもなあ。

すべてのデジカメに性的コンテンツ認識機能(顔認識みたいな)を入れてネットにつながったタイミングで通報するような仕掛け(を強制する法律)もでてくるかもね。