さば缶 [食べ物]
このさば缶はすごい。
DHA 4790mg EPA 4806mg入ってますね。多慶屋で208円(税込み)でした。
サントリーのサプリが4粒(1.60g)あたりDHA/300mg EPA/100mg程度ですから。
DHAで15倍以上、EPAでは48倍入ってますね。
さて、お味は。
DHA 4790mg EPA 4806mg入ってますね。多慶屋で208円(税込み)でした。
サントリーのサプリが4粒(1.60g)あたりDHA/300mg EPA/100mg程度ですから。
DHAで15倍以上、EPAでは48倍入ってますね。
さて、お味は。
横浜中華街でお昼 [食べ物]
自動水やり機を設置しました [家電]
自動水やり機を設置しました。
朝7時と夕方5時に10分間水をやるようにセットしました。
二股分岐のワンタッチ部分がガタついていて、水道の口につけた時に水漏れしました。
で、ホースで経由し入れ口が動かないようにしました。
寒い時にはホースをジョイントにつなぐのが固くて苦労します。コップにいれた熱湯にホースの先端を7mm位入れてふやかして入れると簡単に入ります。
梅は7-8月の新芽から花芽ができるようで、その時に水が不足すると花芽がつかないようです。
手前の鉢は枯らしてしまったと思った梅です。生きてはいましたが、それから花は咲いていませんでした。今年買った梅は開花中です。
来年は2つとも咲くかな。
朝7時と夕方5時に10分間水をやるようにセットしました。
二股分岐のワンタッチ部分がガタついていて、水道の口につけた時に水漏れしました。
で、ホースで経由し入れ口が動かないようにしました。
寒い時にはホースをジョイントにつなぐのが固くて苦労します。コップにいれた熱湯にホースの先端を7mm位入れてふやかして入れると簡単に入ります。
梅は7-8月の新芽から花芽ができるようで、その時に水が不足すると花芽がつかないようです。
手前の鉢は枯らしてしまったと思った梅です。生きてはいましたが、それから花は咲いていませんでした。今年買った梅は開花中です。
来年は2つとも咲くかな。
撮影動画から交通量を計測する(その1) [プログラム開発]
撮影動画から交通量を計測するソフト開発を再開した。
開発環境としてOpenCV(動画読み込み用)とOpenGLを使い認識はDeep learningを使って車種まで認識したい。さて、勉強しながらの試作です。
ステップ1.「動体を判断する方法の考察」
〇.動体(車など)が無い背景画を作り、現在の動画(静止画)と比べ違いがある部分が動きがある部分と判断する。
作法①.動画から1フレームずつ静止画として取り出せます。なので、普通は1フレームの全ピクセルを毎回重ね合わせ平均色を求めていくと時間的に多く存在する色が背景の色に近づくはずです。
(前までの平均の色 × 前までの加算回数 + 現在色 ) / ((現在の加算回数) = 新しい平均色を保存
しかし、OpenGLのフレームバッファではRGB各8ビットなので新しい平均色を保存できる領域が8ビットでは加算数が256を超えたら全く反映されなくなります。※これが分かるまで時間を使ってしまった。(涙)
OpenCVのサンプルは8ビットを32ビットに拡張してやっているようです。大量にメモリー消費するし、OpenGLのシェーダーでは無理なので、このやり方は断念しました。
作法②.OpenGLのシェーダーで実現するために頭を絞りました。(笑い)
フレームバッファを2個別に用意しピクセル単位で近い色(距離で閾値内)の集合を2種類作成するようにして、閾値内の色が出てきたらAビット部分をカウンターとして使いアップさせます。閾値外の3色目が出てきたらカウントの少ない方を破壊して新しい色とします。作法②は私が独自に考えた方法なので宜しく。
※近い色の判断は3次元の距離で判断します。
色1(r1, g1, b1), 色2(r2, g2, b2)
距離d = √( r1 – r2 )^2 + √( g1 – g2 )^2 + √( b1 – b2 )^2
【結果状況】
元動画
再生できない場合、ダウンロードは🎥こちら
作り出した背景と比較し動きのある部分だけにした動画。
再生できない場合、ダウンロードは🎥こちら
まだ道や残像が残っています。チューニングが必要ですね。
ソーベルフィルターで輪郭だけにした動画
再生できない場合、ダウンロードは🎥こちら
まだまだ試行錯誤が必要です。
パソコンの性能にもよりますが、ハイビジョンの画質(1920x1080)ですが、OpenGLのシェーダーだけで計算しているので、1フレーム読み込み含めソーベルフィルター表示まで17ms以内で終わっています。
車の個体をどのように切り出すかな、Deep learningに食わせるまで先は長いです。
開発環境としてOpenCV(動画読み込み用)とOpenGLを使い認識はDeep learningを使って車種まで認識したい。さて、勉強しながらの試作です。
ステップ1.「動体を判断する方法の考察」
〇.動体(車など)が無い背景画を作り、現在の動画(静止画)と比べ違いがある部分が動きがある部分と判断する。
作法①.動画から1フレームずつ静止画として取り出せます。なので、普通は1フレームの全ピクセルを毎回重ね合わせ平均色を求めていくと時間的に多く存在する色が背景の色に近づくはずです。
(前までの平均の色 × 前までの加算回数 + 現在色 ) / ((現在の加算回数) = 新しい平均色を保存
しかし、OpenGLのフレームバッファではRGB各8ビットなので新しい平均色を保存できる領域が8ビットでは加算数が256を超えたら全く反映されなくなります。※これが分かるまで時間を使ってしまった。(涙)
OpenCVのサンプルは8ビットを32ビットに拡張してやっているようです。大量にメモリー消費するし、OpenGLのシェーダーでは無理なので、このやり方は断念しました。
作法②.OpenGLのシェーダーで実現するために頭を絞りました。(笑い)
フレームバッファを2個別に用意しピクセル単位で近い色(距離で閾値内)の集合を2種類作成するようにして、閾値内の色が出てきたらAビット部分をカウンターとして使いアップさせます。閾値外の3色目が出てきたらカウントの少ない方を破壊して新しい色とします。作法②は私が独自に考えた方法なので宜しく。
※近い色の判断は3次元の距離で判断します。
色1(r1, g1, b1), 色2(r2, g2, b2)
距離d = √( r1 – r2 )^2 + √( g1 – g2 )^2 + √( b1 – b2 )^2
【結果状況】
元動画
再生できない場合、ダウンロードは🎥こちら
作り出した背景と比較し動きのある部分だけにした動画。
再生できない場合、ダウンロードは🎥こちら
まだ道や残像が残っています。チューニングが必要ですね。
ソーベルフィルターで輪郭だけにした動画
再生できない場合、ダウンロードは🎥こちら
まだまだ試行錯誤が必要です。
パソコンの性能にもよりますが、ハイビジョンの画質(1920x1080)ですが、OpenGLのシェーダーだけで計算しているので、1フレーム読み込み含めソーベルフィルター表示まで17ms以内で終わっています。
車の個体をどのように切り出すかな、Deep learningに食わせるまで先は長いです。