Nov11’s diary(自宅での開発環境作り )

3Dプリンタと切削加工機で工作した事をアップして行きます

自作したロボットアームを制御する(仮想と現実)(その4)仮想現実に物理法則を組み込む

VisualStudio C++/CLIで、物理エンジンのOpen Dynamics EngineとOpenGLを使って、仮想現実(VR)上に物理法則を組み込む事が出来る様になったので、自由落下による連鎖以外に、物体に力を加える事による連鎖を行って見る事にしてみました
どんな事をやるか考えた結果、オーソドックスにドミノ倒しで連鎖を確認する事にしてみました
Open Dynamics Engineで、ボールを水平方向に射出する方法をネットで検索すると、速度をdBodySetLinearVel()で行い、角速度をdBodySetAngularVel()で行えば良いとあったので、この2つを使って、ボールを射出し、ビリヤードと同じように、壁に何度か当ててから、ドミノを倒す事にしてみた
また、前回不自然な動きをしていた原因が、衝突時の反発係数にあったので、これを修正して、摩擦係数などの設定を行うと、自然な動きをしてくれるようになりました

んで、動作結果は、こんな感じです

f:id:Nov11:20170603091226j:plain


動作している動画です

youtu.be

簡易とは言え、何とか物理空間を手に入れる事が出来ましたぁ~!!
これをエド(ロボットアームの呼称)の仮想空間に加えれば、予測行動が出来る様になりそうです
エドに色んな事をさせる前に、思考実験を仮想空間内で行い、実際に動作させた結果と思考実験の差異を蓄積させて行けば、賢くなったエドが、筆者の開発サポートもしてくれるようになるかもですね

ん~、また一歩SF映画に近づけたような気がします

 

なお、ブログの内容を参照して実行した結果に責任は負いかねますので、ご了承下さい

 

自作したロボットアームを制御する(仮想と現実)(その3)仮想現実に物理法則を組み込む

ロボットアームのエドの仮想空間と現実空間の視覚が同期できる様になったので、以前から組み込んでみたかった仮想現実に物理法則を組み込んでみた
と言っても、一から物理法則を作成するなんて事を個人で行うのは、とても無理なので、賢い人達の知恵を利用する事にしました
ネットで調べたら、BulletとOpen Dynamics Engineの2つが良さそうな感じなので、比較した結果、Open Dynamics Engineを使用する事にしました
選んだ理由は、とても単純で、ファイルサイズが小さかったからで、
サイズが小さい→機能が少ない→設定が少ない→簡単に使える?って感じで選んでみました

ネットで使い方を調べた結果、以下の様になりました
ただ、描画は、Open Dynamics Engineに付属しているdrawstuffは使用せずに、OpenGLで描画する様にしたので、プログラムで時間を進めて、位置を取得して、OpenGLに渡す形にしました

ODEの初期化する
 dInitODE() → 初期化
 dWorldCreate() → シミュレーション空間作成
 dHashSpaceCreate() → 衝突空間作成
 dWorldSetGravity() → 重力設定
 dCreatePlane() → 地面生成

剛体を作成する
 dBodyCreate() → ボディ作成
 dMassSetSphereTotal() → 球を作成する場合
 dMassSetBoxTotal() → ボックスを作成する場合
 dBodySetMass() → 質量設定
 dGeomSetBody() → ジオメトリ作成
 dBodySetPosition() → 位置設定

時間を進める
 dWorldStep() → 時間経過
 dSpaceCollide() → 衝突確認
 dBodyCopyPosition() → 位置取得

ODEを終了する
 dWorldDestroy();
 dCloseODE();

 

んで、動作させたら、以下の様になりました

f:id:Nov11:20170531020324j:plain


動画は、こんな感じです

youtu.be

まだ設定不足なのか、不思議な動きをしているけど、なかなか良い感じで動いてくれます
(音とか土煙なんかの効果が無いので少し寂しいですが...)
以前、ピタゴラスイッチをやってみたいって思ってたけど、何とかなりそうな予感がしますね


なお、ブログの内容を参照して実行した結果に責任は負いかねますので、ご了承下さい

 

自作したロボットアームを制御する(仮想と現実)(その2)カメラモジュールを取り付ける

3Dプリンタで自作したロボットアームのエドを仮想空間と現実空間での動作を同期させる事が出来たので、カメラモジュールを取り付けて、視覚も同期出来る様にしてみました
最初は、JPEGカメラを取り付ける予定だったけど、コンパクトで安価(999円)なWebカメラモジュール(マイク付き)が見つかったので、これを取り付けてみました
カメラモジュールの取り付け位置は、掴みの下部で下の写真の様にしてみました

f:id:Nov11:20170429224520j:plain

何も無いと比較しにくいので、以下の様にオセロボードを仮想空間と現実空間に配置して、

f:id:Nov11:20170501170940j:plain

OpenCVを使って、動画を取り込み、OpenGLで描画した仮想空間と並べてみました

f:id:Nov11:20170429224558j:plain
カメラから被写体までの距離が近いせいか若干ピンボケだけど、なかなか良い感じになったです
後は、視野角などを調整して、物体認識した結果を仮想空間に取り込んだり、仮想空間の動体を動画に表示できる様にすれば、良い感じの拡張現実も出来そうです

なお、ブログの内容を参照して実行した結果に責任は負いかねますので、ご了承下さい

 

自作したロボットアームを制御する(仮想と現実)(その1)仮想空間と現実空間を同期させる

エド(ロボットアームの呼称)に搭載するデバイスが揃ってきたので、搭載前に仮想空間と現実空間を同期させてみる事にした
と言っても、仮想空間のエドに指示している関節角度をサーボモータ制御用PWM(15mSec周期)のデューティー比に変換して、以前作成したサーボコントローラ(16/04/25のブログ)に送信するだけなので、現在作成中のプログラムに、この処理を追加し、OpenCVで動画撮影が出来るので、この部分も追加し、仮想空間と現実空間が同期している事が分かるようにもしてみた

この制御での注意点は、サーボモータの速度制御をしてあげないと、本体やサーボモータを破損してしまうという点で、今回作成しているロボットアームは全長30cm以上あるので、速度制御しないと大きく動かした後に慣性でとんでもない事になってしまいます
まぁ、予算があればデジタルサーボ等を使用して、速度制御出来る様にするのが一番だけど、トルクの大きいデジタルサーボは、とてもお高く貧乏な筆者では手が出ないので、上記のような工夫をするしかないのでした

同期させて動作させた写真です

f:id:Nov11:20170324050826j:plain
この写真を撮っている時に気付いたのが、ロボットアームを水平位置から一気に上昇させると、色んな関節に負荷が掛かって、最大で7A近くの電流が流れるみたいで、電源は50W(5V,10A)だけど、ボードが40W仕様なので、後で改良する必要が...ですね

んで、同期させると、こんな感じになります


多少のカクカク間は否めないけど、とりあえず、同期させる事が出来ました


後は、カメラと距離計を搭載し、画像認識した結果を仮想空間に反映できれば、仮想空間と現実空間が相互同期する事になる
ん~、少しずつだけど、SF映画ぽくなってきました

 

nov11.hatenablog.com

なお、ブログの内容を参照して実行した結果に責任は負いかねますので、ご了承下さい

開発環境ツールを自作する(電圧電流モニター作成)(その8)

別件で、I-V測定を行う必要があったので、1年程前に作成していたピークホールド付き電圧電流モニター(16/04/20のブログ)を引っ張り出して測定したところ、何だか値がおかしい事に気付いた
調べたら、増幅率やゼロレベルがずれていたせいで正しい値が出ていない...
他にも、各基盤を繋いでいるケーブルの接触不良があり安定した値が表示されない...
とりあえず、瞬間的な電流を測る必要はなかったので、テスターを使用して測定をしたのだが、これを機会にちゃんと使える物にバージョンアップする事にした

現行の問題点は、ケーブルが多い、調整用の半固定抵抗(段々とズレてくる)、表示が見づらい等々...
んで、全て見直した結果、前回なるべくMCUを使用しない方向で作成したが、今回はなるべくMCUを使用し、調整などをMCUに行わせる方向で作成する事にしてみました

まず検討したのは、この回路の肝であるシグナルコンデショナーとピークホールドの2点で、これをMCUで制御出来る様に見直しを行い、シグナルコンデショナー内の、アナログ信号の四則演算部分をPICで代用し、ピークホールドのリセットタイミングも制御出来る様にし、I2C接続を行う事にした
表示については、見易さ優先で、7セグにして、これもI2C接続で制御出来る様にしてみた
また、通信にBluetoothモジュールを使用していたが、データ量が少ないので、双方向赤外線モジュールを自作する事にした
通信速度は、2400bpsと低いけど、電圧電流値を送るだけなので問題は無いし、なんといっても安くて200円程度で出来てしまう
注意点は、双方向にしたので、自分で送信したデータを自分も受信してしまうので、簡単なパケットとプロトコルを作成しなければいけないってところですね
で、大事な測定対象の電源ラインの接続部分も強化して、10Aに耐えれる様にもしてみました
最終的に、PICを8個使用して、表示用の7セグモジュールのみケーブルで接続する形式となり、オシロスコープでも確認出来る様に、変換前の信号と加工後の信号をピンヘッダーを出してみました

んで、完成したのが、以下の写真です

f:id:Nov11:20170315175315j:plain
       (セメント抵抗の数が足りずに、9Aまでの測定となっています)

パソコンから、増幅率、ホールド時間や校正値等を送れば自動調整してくれるのが嬉しいですね
10cm×10cm×6㎝と少し大きくなったけど、デジタルマルチメータを2台並べるよりは、ずっと小さいし、瞬間的な電流も測れるので良しってところです

ん~、ここまで出来ると、オシロスコープが無くても、波形も見られるとなぁ~って思ってしまいますね
今回、アナログ信号の四則演算制御が出来る様になったので、オシロスコープも出来そうだし、表示器のラインナップにグラフィック液晶表示器が加わると、発想の幅も広がるので、後日作成してみる事にしようと思います

なお、ブログの内容を参照して実行した結果に責任は負いかねますので、ご了承下さい

PICを使用して開発する事にした(8BitMCUのPIC16Fを使用する)

STMicroelectronicsさまのレーザー測距センサ(VL53L0X)をPIC32MX170F256Bを使用して、距離測定が出来るようになったのは良かったのだが、ロボットアームの全長が30cm以上あるので、ケーブル長が40cm以上になってしまう
この長さをI2Cでやり取りするのは難しそうなので、UARTでロースピードで伝送する方式にする事にしようと考えたのだが、PIC32MX170F256BやPICFJGA002は、28ピンもありサイズが大きいので、サイズの小さい8bitMCUのPIC16F1455を使用する事にした
PIC16F1455を選択した理由は、14ピンで、コンパクトな上に、EUARTやI2C(MSSP)通信の他にA/DやD/A変換等の機能が盛り沢山な上に価格も160円(秋月)とコスパがとても良い、またコードコンフィグレータ(MCC)が使用できるので、プログラムを作成も簡単に出来てしまいそうなので、採用する事にした

PICを使用して開発する事にした(32BitMCUのPIC32MX系を使用する)で、xc8のコンパイル環境をインストールしていたので、PIC16F1455の資料を以下のサイトからダウンロードして、動作テストを行う事にした

PIC16F1455のマニュアル

http://ww1.microchip.com/downloads/en/DeviceDoc/40001639B.pdf

MPLAB X Code Configurator ユーザガイド

http://ww1.microchip.com/downloads/jp/DeviceDoc/40001725B_JP.pdf

んで、PIC16F1455のマニュアルから、PICkit3とPIC16F1455を接続して、MPLAB X Code Configuratorユーザガイドを見ながら設定とプログラムを作成を行った
それにしても、8Bit系のPIC16やPIC18のコンパイラやコードコンフィグレータ(MCC)の日本語マニュアルがあるのとても嬉しいですね(16/32Bit系のマニュアルは見つけられなかったです...)
そのおかげで、悩む事無くサクッと簡単にプログラムを作成出来ました!!
また、PIC16Fは、コールバック関数を登録できるので、プログラム修正しなくて良いのがいいですね

作成したプログラムは、テラターム経由で、PIC16F1455のD/A変換でLEDの明るさを変えながら、タイマー割り込みを使用して、LEDを点滅させるものです
テラタームやFTDI等の設定やプログラムの書き込みは、「PICを使用して開発する事にした&三日坊主にならずに済んだ!」を参考にしてください

〔PICkit3とPIC16F1455の接続図〕

f:id:Nov11:20170124155420j:plain

〔PICkit3とPIC16F1455の接続写真〕

f:id:Nov11:20170124155445j:plain

〔PIC16F1455の設定〕

f:id:Nov11:20170124155521j:plain

f:id:Nov11:20170124155540j:plain

f:id:Nov11:20170124155602j:plain

f:id:Nov11:20170124155622j:plain

f:id:Nov11:20170124155646j:plain

f:id:Nov11:20170124155717j:plain

f:id:Nov11:20170124155735j:plain

f:id:Nov11:20170124155751j:plain

 

〔PIC16F1455のプログラム〕
//------------------------------------------------------------------
//------------------------------------------------------------------
// TMR1 CallBack Function
void LedToggle( void ) {
     // この関数が500mSec間隔でコールされる
     IO_LED_Toggle();
}

void main(void)
{
     uint8_t ucChar;
     uint8_t ucLevel = 0;
     // initialize the device
     SYSTEM_Initialize();

     // Interrupt Enable
     INTERRUPT_GlobalInterruptEnable();
     INTERRUPT_PeripheralInterruptEnable();

     // TMR1 CallBack Function Entry
     TMR1_SetInterruptHandler( LedToggle );
     // DAC Output
     DAC_SetOutput( ucLevel );

     while (1)
     {
          // Add your application code
          ucChar = EUSART_Read();
          if ( ucChar == 'u' ) {
               if ( ucLevel < 0x1f ) {
                    ucLevel++;
               }
          }
          if ( ucChar == 'd' ) {
               if ( ucLevel > 0 ) {
                    ucLevel--;
               }
          }
          // DAC Output
          DAC_SetOutput( ucLevel );
          // Echo Back
          EUSART_Write( ucChar );
     }
}
//------------------------------------------------------------------
//------------------------------------------------------------------

プログラムを書込んだ後に、LEDが0.5秒毎に点滅し、コンソールから'u'を入力すると、もう一つのLEDが明るくなり、'd'を入力すると暗くなる事が確認できれば、動作テスト完了となる

 

これで、I2C通信を確認して、VL53L0Xの制御シーケンスを乗せれば、ロボットアームに組み込む事が出来そうです

なお、ブログの内容を参照して実行した結果に責任は負いかねますので、ご了承下さい

 

 

自作したロボットアームを制御する(現実認識を行う)(その4)レーザーで距離を認識する

前回使用したHC-SR04だと、±1cm程度の誤差が発生してしまう事が判明したので、他の距離センサを探した結果、レーザー測距センサのVL53L0Xと言う物を見つけた
ネットの評判は、とても良さげで、なんと測定誤差が±1mmで、I2Cで制御出来るとの事なので、早速購入して試してみた
が、残念な事に、このモジュールは、通常のI2Cモジュールみたいに簡単制御出来ない!
制御する為には、ライブラリーが必要なのだが、残念な事にPIC用のライブラリーは用意されていない
ん~、勢い任せで購入したが、もしかしたら、1500円が無駄になる可能性が…
焦りながら、色々と調べると、ライブラリーはソースで供給されているみたいなので、メーカさま(STMicroelectronics)のサイトを見てみると、ソースコードがありました!!
んで、早速ダウンロードして、I2Cの部分のみ記述を変えてコンパイルし、以前作成した液晶コントローラー(2016/01/29)のMCUをPIC32MXに乗せ換えた環境で動作させたのだが、さっぱりと動いてくれない
ロジックアナライザを取り出し確認したところ、I2Cコマンド発行間隔に数ミリ程度空けないといけない事が分かったので、この部分を修正して、動作させると、動いてくれました(1500円が無駄にならずにすみましたぁ~)
ついでに、対象物検知や測定結果を読み上げてくれるように、以前作成した音声合成モジュール(2016/02/09)を接続して、動作確認をして見たが、なかなか良い感じに動いてくれた

これで、ロボットアームに取り付けるモジュールがそろった!
後は、音声認識が出来るようにして、音声対話プログラムを作成すればってところですね

[測定写真]

f:id:Nov11:20170110104811j:plain

          (VL53L0Xと飛行機の距離を測定しています)

[測定動画]

youtu.be

       (VL53L0Xと飛行機の距離を測定しています)

 

 

なお、ブログの内容を参照して実行した結果に責任は負いかねますので、ご了承下さい