ブログ記事27件
みなさま、こんばんわ🌜まだまだ残暑が続いていますね🫠1Python3年生ディープラーニング2日目本日は『Python3年生ディープラーニング』という本の2日目の学習でした。今日から実際にニューラルネットワークをプログラミングしていきます。2TensorFlow本に沿ってTensorFlow(テンソルフロー)を使って、ニューラルネットワークのプログラミングを進めていきます。TensorFlowについてChatGPTに聞いてみました👇👇👇⭐Tens
行き詰ってしまった。一度動いたけれど2回目は動かない。何をどうしていいかわからない。データも良くわからない。ダメだ。PythonとKerasによるディープラーニング[FrancoisChollet]楽天市場4,268円物体・画像認識と時系列データ処理入門[TensorFlow2/PyTorch対応第2版]NumPy/TensorFlow2(Keras)/PyTorchによる実装ディープラーニング[チーム・カルポ]楽天市場3,520円直感D
さらに調べていくと、勾配消失というか自前で用意したレイヤの自動微分計算でNaNが発生しているような気がする。関数に@tf.custom_gradientというデコレータを追加し、内部で微分式を表す関数を自分で定義して関数値と一緒に返すようにすればよいらしい。
みなさんこんにちわ、こんばんわSAIです。ちょっと番外編です。というか、ぼやきです。OpenCVを使ってSAIがやりたいことは、任意の画像を認識させて遊びたいんです。具体的には、自動車で走行中に道路標識を認識させたい。というわけで、いろいろカスケードを作成しては失敗を繰り返しています。最初に↓の記事に書いた通り、「特徴抽出の方法や、サンプル画像の出来栄え」が目に見言えないので難しい。『【画像認識】0.まえがき。画像認識を試してみよう。』みなさ
これまでディープラーニングのフレームワークとしてKerasを使ってきた。しかし最近ではいろいろな事前学習済みモデルがPyTorch向けに公開されることが増えてきたので、PyTorchも少し齧ってみている。Chainerからフォークしたというだけあり、基本的なコードはよく似ている。numpyと操作感がほぼ同じというのは扱いやすくもあるが、混乱しがちかもしれない。とりあえずは事前学習済みモデルで素性をエンコードするのに使うところから始めてみよう。
Deeplearningの環境として、Tensorflow1.8.0Keras2.1.6CUDA10.1.120(※1)cuDNN7.3.1で運用してきましたが、2018年の環境であることからバージョンアップを試みました。ここによると、Tensorflowの最新は、2.3.0のようです。BuildfromsourceonWindows|TensorFlowwww.tensorflow.org一方、Anaconda環境で使用可能なTens
Deeplearningを使った物体検出モデルで、Keras版YOLOv3で野鳥の検出を試みた記事を過去に載せました。今回は、Keras版YOLOv4を動かしてみました。と言っても、どうやら、これは、YOLOv3のソースを修正したもののようで改良版があるようです。動作環境:Tensorflow1.8.0Keras2.1.6CUDAV10.0.130cuDNNv7.3.1Windows1064bitCorei7-870032GBGeforceGTX10
深層学習に慣れてない人がちょっとPythonとKerasで試してみるにはどうすればよいかをまとめたチュートリアルと言えばよいでしょうか。・自然言語処理・画像識別・画像生成・音声合成・テキスト生成・強化学習といった分野ごとにコンパクトにまとまっています。逆に個々の分野での深い話はほとんどありません。Kerasを使った深層学習について慣れている人にとっては基礎の振り返りという意味ではいいでしょうが、最新の手法については載っていないのでほかの本を読んだほうがよいでしょう
RaspberryPiをダイビングに持って行きたい、それだけです。。水中で画像認識できるようにしてます。とりあえず、ハウジングに入れて動作はするようになりました。自分で撮った写真を水増しして教師データとして学習させました。キンチャクダイとマツカサウオしか学習しておらず2つしか分類が出来ませんが。。精度もかなり悪いです。RaspberryPiとカメラの固定分類精度アップして実際に水中に入れたいです。
[1]はじめに2019年12月に野鳥検出の記事を投稿しましたが、アノテーションに誤りがあり、精度を落していたことが判明しました。今回、アノテーションツールを変更し、再度アノテーションを実施したところ、検出してもスコアが0.1程度だったものが0.5以上がほとんどとなる良好な結果を得られました。また、前回は7クラス分類だったが、今回は17クラスに増やしています。[検出対象とした野鳥の種類=クラス]・カワセミ・ジョウビタキ雄・ジョウビタキ雌・ヤマガラ・ツバメ・シジュウカ
RaspberryPiに3.5インチモニタとラズパイカメラとモバイルバッテリーを取り付けました。RaspberryPiは消費電力が低い3の方です。これでどこでも画像認識ができます。でも、FPSは9くらいでややカクカクになります。
A=緑色の本,B=黄色の本Keras(CNN)でWebカメラの画像を分類する事ができました。学習する時は「load_img(target_size)」で大きさを小さくして分類する時のカメラの画像は「cv2.resize」で小さくしてました。前者は「RGB」、後者が「BGR」の配列になるため色を区別できてなかったです。。https://note.nkmk.me/python-opencv-bgr-rgb-cvtcolor/基本的な事でした。。【参考】Webカメラの画像をニ
KerasでCNNを使ってWebカメラの画像を識別したいのですが。。A=本,B=マウスで学習本とマウスは識別できるけど。。A=緑の本,B=黄色の本で学習違う色の本が識別できないです。。訓練用の画像は認識できるけどWebカメラにするとできないです。打開策。。
Kerasでは学習前にモデルの損失関数を指定する必要がある。簡単な問題だと定義済みの損失関数の名前を指定するだけでよいのであるが、複雑な問題だと自作関数を指定したくなる。しかし指定できる損失関数のシグネチャは(y_true,y_pred)に固定されているので、ちょっとしたコツがいる。外部からパラメタを与えたい場合は、そのパラメタを受け取りパラメタを保持したクロージャを返す関数を作ればよい。ただし学習したモデルをそのままsaveするとload時にクロージャが見つか
JetsonNanoで物体検出してみました。・Keras-tiny-YOLOv3FPS=3くらいJetsonNanoでkeras-yolo3を使う・TensorFlow-tiny-YOLOv3FPS=6くらいRaspberryPiでYOLOv3-Tiny/YOLOv3による物体検出を試してみよう(ちなみにRaspberryPi4だとFPS=1くらい)・TensorRT-tiny-YOLOv2FPS=7くらい(時計も本もクラスに入ってないから検出されてな
ニューラルネットワークのためのライブラリは・手軽に使えるKeras・細かいところまで手が届くTensorFlowが王道です。日本では日本製のchainerを使うところも多かったようですが、Facebook製のPyTorchに乗り換えが進みつつあります。海外でもPyTorchが流行りつつあるというので、どういう感じのものか調べてみることにしました。大きな違いはdefineandrunとdefinebyrunだそうですが、コンパイル言語とインタプリ
タイトルに入りきれなかったウェイトトレーニングがメインテーマになりそうな
インテルのAI推論を用いた開発ツールOpenVINOToolKitをWin1064bitパソコンに入れて、demoを走らせていますが、このPCには、AnacondaNavigator1.6.9Python3.6Tensorflow-gpu1.8.0Keras-gpu2.1.6pythorch1.1.0CUDA10.1CUDNN7.1.4GeForceGTX1060(6GB)等がインストールされており、yolo3、yolo3-tiny、SS
4/19にWindowskeras版YOLOV3をGeForceGTX1060(6GB)といった貧弱なGPUで学習させるため、フル版とtiny版の中間のモデルを作って学習させてみたけど、物体検出テスト結果は、フル版の学習済weightロードに遠く及ばないといった投稿をしました。今回はその続編で、いったんkeras版から離れて、darknet.exeを使って学習した時のメモです。結論から言うと、やはり学習済weightのロード無しで学習させた場合はlossも下がらないし、検出結果も
fit_generatorだけあってtrainデータはgeneratorでなければダメなのは当たり前だが、ドキュメントを見るとvalidationデータはgeneratorではなくタプルでもよいと書いてある。そこで、fitのときのコードを使いまわしそのままvalidationデータを与えてみたがなぜかエラーになって動かない。Kerasのバージョンによるのか?
keras-yolo3の学習を次の環境で実行して、GPUのメモリー不足のエラーに悩んだ経緯です。ネットの記事で、keras-yolo3で学習してみたというのはたくさんあるのですが、みなさん、GeForceGTX1080iとか2枚挿しとか、贅沢な環境をお持ちですよね。貧乏サラリーマンには買えるGPUじゃないのです。PC新規購入に奮発して、Deeplearningでも遊べるように次の環境のPCを導入したわけですが、gitからダウンロードしたkeras-yolo3のままではGPUメモリ
①妻のPCをWindows10にアップグレード。2016年、まだWindows10が無償インストール可能だったときに、Windows7とWindows10のデュアルブート環境を構築したが、Windows10を入れたボリュームが2006年に買ったHDDで調子が悪かったので外し、そのまま2年半以上Windows7のままで使っていた。しかし、2020年問題もあるし、とようやく重い腰を上げた。まず、Windows7のシステムバックアップ。外付けのUSBHDDにバックアップを作成。これで万が
物体検出のモデルyolo3を動かすために実施したことです。次の環境に構築することを前提にしています。Windows1064bitAnaconda3(64bit)Python3.6Tensorflow1.8.0Keras2.1.6CUDA9.2cuDNNv7.3.1GeForceGTX1060tensorflow、keras用仮想環境名tf_gpu【概要】①Gitダウンロード、インストール(必須ではありません。)②yoloのclone作成git
昨日晒したバグを直したので、Grad-CAMを用いたヒートマップを表示できるようになった。自分で組んだ10種類の花画像の分類モデルに応用してみた。Grad-CAMを使ったヒートマップの表示方法は、検索するといくつも出てくるのでここには書かない。わたしも、ネットの記事を参考にして、自分のpythonコードに組み込んだだけだから。ひとつの入力画像に対して、最終出力値に対して影響度をグレースケール画像で出力して、それに青-赤の擬似カラーを付けたものである。(影響度が大きかった部分が赤)処理結
自己啓発で、tensorflowとkerasで、自分で撮影したデジカメの画像分類をやってます。自宅や、近くに公園などで撮影した10種類の花画像の学習済分類モデルを使って特徴マップの表示をさせてみました。まず、構築した画像分類モデルです。3570枚の学習用花画像で学習、950枚の評価用花画像で評価したところ、93%の正解率が得られています。カーネルサイズは、Conv2d_10Conv2d_13のみ1x1残りは、3x3です。分類数が10と少ないのと、学習用画像の枚
以前Chainerによる実践深層学習は読みましたが、正直イマイチな本であまりおススメできる内容ではありませんでした。一応今回v2も読んでみましたが、これも正直イマイチな面が否めない。そもそもChainerの公式サイトに行くと最新版はv5とか書いてあるではないですか。ネットの情報を見てもChainerはバージョンアップするたび過去の書き方を非推奨にしたり、そもそも互換性がなかったりするらしいので、今さらv2を読んでも意味がないかもしれません。というかバ
ここ最近、機械学習に関するクソ本が大量出版されています。ゴールドラッシュで一番儲けたのはツルハシ屋だといいますが、機械学習の分野でも自分で何か作って儲けるより、作るための道具・手順書としてクソ本でもとにかく出しまくって儲けようという姿勢なのでしょう。そういう意味ではこの本も警戒していたのですが、内容はかなりまとも。Keras,Torch,Chainerを使って実際に画像分類、物体検出、強化学習を試してみるというものになっています。ライブラリのインストールだけでなく、テスト