ブログ記事34件
LAION-5BはCSAMだけでなく成人のポルノも、イラストや漫画も含めて広い範囲で削除しています。以前検索したlolipornやpornでは写真だけでなくイラストも漫画もCGも合成も表示されません。ソフトなヌードも削除されています。ただし昨日書いた通り検索ワードを変えるとまだ出ます。言語を変えても出る画像が違ってきます。まだ完全にクリーンになってはいません。『LAIONは完全に浄化されてはいません』LAION-5BにCSAMが含まれることがスタンフォード大学の調査で明らかにされ、公開停止、
LAION-5BにCSAMが含まれることがスタンフォード大学の調査で明らかにされ、公開停止、問題のデータの削除が行われていることは以前書きました。『スタンフォード大学がLAION-5BのCSAM(児童性的虐待素材)を確認』巨大データセットLAION-5BにCSAM(児童性的虐待素材、日本で児童ポルノと呼ばれるものに近い)が含まれることは昨年から指摘されhaveibeentrai…ameblo.jphaveibeentrained.comが再開したので検索したところ、以前露骨な画像が大量に
一時より落ち着いてきたのでXアカウントを公開に戻しました。昨日も書いたようにプラットフォームの規制強化は開発元の国の規制を逃れて日本に投稿してくるユーザーが原因です。そもそも開発元はディープフェイク(ポルノ、CSAM含む)の製作を禁止していますが、規約に実効性がないのが問題です。データセットの汚染と安全対策の不備が招いたことです。日本で問題提起している人の責任ではありません。汚染された製品を使った規約違反を表現の自由で擁護することはできません。StabilityAIもBBCの取材に答えて法
生成AIによるCSAMやディープフェイクの製作は開発元の規約で禁止されている行為です。やらないか、やっても公開しなければ問題にされませんでした。それを公開して販売までするユーザーが増加して社会問題化したため、開発元の米国、英国、欧州の法規制が厳しくなっています。日本ではまだ法規制の動きはありませんが、プラットフォームに規約違反の投稿をするユーザーが増えたため制限が厳しくなり、生成AIを使用しない従来の描き手も巻き添えになっています。これは規約違反をする悪質なユーザーとプラットフォ
SNSに投稿しても意味がないと書く人もいますが、それならなぜどこの企業も政府機関もアカウントを取り情報発信しているのでしょう?誰もがSNSで宣伝するのでしょう?生成AIについて、私は2022年までは面白アプリ程度しか知らず絵は許可を得て使用していると思っていました。自分とは無関係だと思っていました。問題があることを知ったきっかけはSNSです。漫画家だけでなくイラストレータの方もフォローしていて、共有されている情報が流れてきました。製品を製作するのに使われたデータセットLAIO
データセットLAION-5Bを検索できるhaveibeentrained.comがリニューアルオープンしました。CSAM(日本では児童ポルノ)がどの程度削除されたか確認し、完全ではありませんが問題になりそうなイラストや漫画も削除されていることを確認しました。肝心な自分の絵は以前単語と画像で検索して全部オプトアウト(学習対象から除外)したので残っていないと思っていました。しかし念のため再度検索したところ、以前オプトアウトしたのと同じ画像が2件(10枚以上)見つかりました。一度削除した後にまた
毎日新聞社が「子どもを児童ポルノから守る会」の協力を得て2023年7月以降にネット上で画像検索等で調査した結果、保育園、幼稚園、認定こども園等135園のウェブサイトに、水遊び、泥遊び、ボディーペイント、乾布摩擦、内科検診等の園児の体の一部が露出した画像が掲載されていることがわかりました。それ自体は悪質な画像ではありませんが、12園が掲載した画像が海外のポルノサイトなどに転載され、6園が掲載した画像はAIの学習に使われるデータに組み込まれているということです。園児の画像、海外ポルノサイトへの転
NCMEC(全米行方不明・被搾取児童センター)は、報告されたCSAMから被害児童を特定し保護しています。ウエブサイトでCSAMの被害児童の年齢や性別の傾向を見ることができます。CSAMは女児の被害が多い。CSAMの被害児童は思春期前が多い。男児は女児より露骨な虐待やひどい虐待を受ける可能性が高い。CSAMの被害男児の年齢は女児より低く思春期前が多い。オンライン誘拐の被害児童の78%は女児、15%は男児、残りは不明。ChildSexualAbuseMaterialChildpo
スタンフォード大学インターネット観測所の調査報告書にあるCSAMという言葉はChildSexualAbuseMaterial(児童性的虐待画像)の略語です。露骨な性的行為に関与する未成年者を扱ったあらゆる映像描写を含みます。親が子供の水遊びを撮影した映像は該当しません。性的行為ではないからです。米国ではCSAMを発見したらNationalCenterforMissing&ExploitedChildren(NCMEC、全米行方不明・被搾取児童センター)に報告する
昨晩はパブリックコメントを書いて疲れ果て、今日は復旧したhaveibeentrained.comで気になるコンテンツを検索しました。porn(ポルノ)は成人も含めて検索結果に出なくなりました。漫画やイラストもかなり減っていますが、書店で販売されている単行本や雑誌のカバー(書店のサムネイル他)や色紙や展示などの画像が出る人がいます。イラストレーターも数は減りましたが本のカバーの他に(無断)転載と思われる画像、ファンアート、AI生成物が出ます。掲載元はPinterest、WixMedia、A
LAION-5Bのデータを検索できるhaveibeentrained.comが復旧していました。Spawning|HaveIbeenTrained?SearchforyourworkinpopularAItrainingdatasetshaveibeentrained.com念のために問題になったCSAM、成人のポルノ、差別用語、犯罪者の名前、写真家の名前で検索してみましたが、イラストも含め問題のありそうな画像はほぼ表示されなくなっていました。病院の入院患者や高齢者
日本の児童ポルノ禁止法では創作物は実在のモデルが特定できない限り違法になりません。そのためAICSAMの投稿が規約違反でも罪には問われません。昔から児童ポルノを問題にしている人から見ると、AICSAMが特に問題には見えないかもしれません。しかしAIに特定のモデルを追加学習させると、そのモデルのイメージでバリエーションを作ることができます。1人の女児のイメージがAIを通して無限に増えてしまいます。仮に特定のモデルの追加学習が禁止されたとしても、複数のモデルを使えば合法といわれてしまいます
米国は成人のディープフェイクポルノを規制する法律のない地域があるため今問題になっていますが、日本では現行法でも違法です。合法だと主張する日本人がいますが、勘違いです。肖像権侵害、名誉棄損、有名人ならパブリシティ権の侵害になり被写体が18歳未満なら児童ポルノ禁止法でも違法になります。わいせつ物頒布等罪に当たる場合もあります。Photoshopでも動画編集ソフトでもAIでもCGでも、道具は何であれモデルがわかれば人を傷つけた罪を問われます。問題は有名人ならすぐに気づかれても、一般人は誰
私は1986年から投稿を始め、87年末にプロとして受注した仕事を始めました。アナログ時代が長く、デジタル移行は2013年と遅めです。生成AIも昨年試作しており、全部できます。道具の変化は身をもって知っています。アナログ時代80年代はまだスクリーントーンの種類が少なく、高価でした。漫画用原稿用紙もありませんでした。まずB4のケント紙の四隅に鉄筆でアタリを入れて鉛筆で基本枠を作り、漫画用原稿用紙として使いました。枠線は烏口で引きました。インクはパイロットの製図用か証券用です。後に
ブログはテーマごとに記事を探せるようになっていますが、AIをテーマにした記事が増え、細かく分類もされていないため、自分でも過去の記事を見つけにくくなっていました。そこでテーマをAI全般、LAION-5B、ディープフェイク、CSAM、AIの利用規約、AIの悪用に分けて再構築しました。それでもAI全般(記事が多岐にわたる)が多くなってしまいましたが、よく読まれているCSAMとLAION-5Bの記事は探しやすくなりました。スタンフォード大学がLAION-5BのCSAMをPhotoDNAを使って検
画像保護ツールGlaze、Nightshadeはデータセンター冷却問題のため一時停止していましたが、復旧したそうです。Updateonthis.Coolingsystemcamebacklatelastnight.Allserverswereupthismorning,andIjustturnedonthewebserver/webglazeservice.Fileservershostingdownloadsarealsoupa
生成AIの中で最も自由度の高いUnstableDiffusionの利用規約(英文)です。ContentGuidelinesGenerateimageswithUnstableDiffusion!www.unstability.ai架空のキャラクターも含めて18歳未満に見える、18歳未満のAICSAM作成を禁じています。有名人のディープフェイクも禁止です。StableDoiffusionのライセンスの付属書の使用制限も、未成年者を搾取し、害し、または搾取もしくは害し
今反AIといわれている人たちは、反AIではなく権利者の許諾を得たデータセットを使うオプトインなら良いという人が大半です。完全オプトインで海賊版やCSAM他違法性のあるデータを使わないクリーンな生成AIができれば、使う人は増えるはずです。今見せられているAI推進派と反AIという幻の対立は消えます。今はデータセットに問題が多く安全設計も不充分なため、ポルノやディープフェイクなど規約違反の悪用が目につきます。それを使った個人への嫌がらせも横行し、毎日のように見せられるため規約を厳しくして実効性
二次創作は親告罪です。TPP加盟で非親告罪になれば同人文化が終わるという懸念から反対の声が高まり、交渉によって阻止しました。悪質な海賊版の製作は非親告罪ですが、個人の二次創作は親告罪のままです。日本が表現の自由を守るために勝ち取ったTPP交渉の成果です。それが現在生成AIを利用した二次創作と称する生成物が合法だと主張される根拠になっています。しかし合法ではなく、親告罪だというだけです。著作者(著作権者)が認めなければ終りです。しかし現実には削除してくれと申し入れても応じず、集団で投稿を繰
UnstableDiffusionというNSFWを製作できるAIは表現の自由を求める人に支持されています。ここでは成人のヌードは自由に生成できますが、CSAMの作成は禁じられています。利用規約を見てみると、架空のキャラクターも含めて18歳未満に見えるもの、18歳未満のものはCSAM作成を禁じると書いてあります。日本の児童ポルノ禁止法より厳しい規制です。また有名人のディープフェイクも禁止されています。管理者により違法性のある画像は削除されます。また報告も受け付けています。何でもできるわけ
スタンフォード大学インターネット監視団がLAION-5Bに含まれるCSAMを検証した報告書はこちらから原文をDLできます。IdentifyingandEliminatingCSAMinGenerativeMLTrainingDataandModelsGenerativeMachineLearningmodelshavebeenwelldocumentedasbeingabletoproduceexplicitadultcontent,incl
生成AIを使って非同意性的画像(NCII)を作るサービスを提供している34社を調査したところ、一か月のユニークアクセスだけでも2400万人に上るということです。生成AIが普及して2年、換算すると世界のインターネット人口の10分の1が訪れた計算になります。児童を使ったNCIIは米国では児童ポルノとされ製作した医師が禁固40年の判決を受けています。しかし成人の写真をアプリで加工したものは合法扱いされているということです。写真の女性を「ヌード化」するアプリが人気急上昇、その問題点(ForbesJA
スタンフォード大学の研究チームがLAION-5Bから3000超のCSAM疑い素材を見つけ外部機関で1008の素材がCSAMと判定されたという記事をご紹介しましたが、報告書の原文がPDFでDLできるようになっています。こちらからml_training_data_csam_report-2023-12-23.pdfをDLしてください。IdentifyingandEliminatingCSAMinGenerativeMLTrainingDataandModelsGenerat
昨日の記事で、拡散モデルは特定の素材を記憶して再現する能力がある、それがCSAMであれば特定の被害児童の被害の再生産になる、と書きました。『データセットにCSAMがあるとまずい理由』生成AI(StabLeDiffusionに代表される拡散モデル)には人間にない能力があります。1.特定の素材を記憶して再現する能力がある。2.特定の素…ameblo.jp言葉ではわかりにくいので画像で例を上げます。再現能力の高い(問題のある)StabLeDiffusion1.5でプーチンのフ
生成AI(StabLeDiffusionに代表される拡散モデル)には人間にない能力があります。1.特定の素材を記憶して再現する能力がある。2.特定の素材を追加学習して再現できる。3.全ての女性の写真をヌードにできる。しかもスピードが速く大量生産できます。少し説明を補足します。1.特定の素材を記憶して再現する能力がある。生成AIの中でも性能が高く人気のある拡散モデルは、特定の素材を記憶して再現する能力があります。確率は高くありませんが、一般人の顔がほぼその
私はプレ均昭和生まれです。バブル時代にデビューしましたが、新人の待遇は変わらず何の得もないままバブルがはじけ、連載していた雑誌が続けて休刊になり、その後は厳しい時代を過ごしてきました。それでも固定読者の方が一定数いて支えて下さり細々と続けてこられました。読者の方々も同年代か少し下で、80年~90年代の漫画を読んで育ち、2000年前後にブームになった萌えの影響はありません。歳の近い漫画読者の方は、萌えは好きではないといいます。デジコミも好きではなく、アナログの線が好き、個性的な絵が好きでアナ
画像生成AIは写真に依存していますが、写真は作れません。写真の代用はできません。写真と見分けのつかない実写系の生成画像もありますが、それは写真ではありません。悪用すればディープフェイクです。写真は無断で使われるだけで、得るものがありません。しかも悪用が目立ちます。一番損かもしれません。プロでなくても写真を投稿している人は大勢います。していない人の方が稀でしょう。イラストレターや漫画家も写真を投稿しています。haveibeentrained.comで探せば写真も絵もLAION-5B
画像生成AIに自分の絵だけを学習させて使えば良い、という人がいます。それができれば自分の絵が描ける弟子として死後も使えます。確かにそれなら良いと私も思います。しかし現状では残念ながら不可能です。StableDiffusionにはモデル(画像生成に使うアルゴリズム)が用意されており、モデルを活用してAI画像を生成します。様々なモデルから使用するモデルを選びます。モデルを変更することで、生成される画像の特徴も大きく変わります。写真のようにリアルなモデルもアニメ風モデルもあります。<
明けましておめでとうございます。昨年6月以降は生成AIのデータセットの問題について調べたことを書き続け、関心のない方にはご迷惑だったかもしれません。私自身も年明け頃は、絵を描いてたまったら何かの形にしたいと思っていました。しかし予想以上に状況が悪くなり、絵だけ描いていられる心境ではなくなりました。ようやくAICSAMの問題がメディアで取り上げられるようになりましたが、成果物だけを問題にすると、日本も創作物規制を強化して絵の性表現を禁止すれば良いということになりかねません。し
先日スタンフォード大学の調査でLAION-5BにCSAMが含まれていることが確認され、現在公開停止となっていますが、CSAM(児童性虐待素材)だけが問題なのではありません。医療機関から流出した医療写真がLAIONに含まれていることを、患者自身が発見し抗議しています。画像生成AIユーザーがAI学習用データセットから「自分の医療記録の写真」を発見してしまう画像生成AIの「DALL・E2」などを使ったアート作品を手がけるアーティストが、AIの学習用データセットとして提供されている写真の中から、