SOINN

VIDEO SOINN エッジAI・汎用AIを機器・ロボット・プラントへ

VIDEO

SOINN動画のご紹介

こちらではSOINNを使用したデモンストレーションの動画をご紹介しております。

    画像 AI: Switch Vision® Module の学習のコツとデモ

  • 少量の学習データから、GPU不要の軽量演算で、高精度なモデルを構築可能な画像 AI、Switch Vision® Module をご紹介します。

    ぜひ Switch Vision® Module をお手元のPCにインストール頂き、お手持ちの画像でお試し下さい。

    画像のトリミングなどをした後、「学習実行」ボタンを押すだけで高精度な画像 AI が自動で学習されます。

    学習後は、AI を可視化し、対話しながら画像 AI をより高精度に育てられます。

    Switch Vision® Module には他の機器・装置との通信機能もデフォルトで付属しています。

    2週間の無料トライアルもございます。ご不要の場合は2週間以内に解約頂ければ完全無料です。

    AI は以下のサイトから24時間いつでもダウンロード頂けます。

    https://soinn.ai/

    ご不明な点や、実機デモなどのご要望は、以下までご連絡ください。
    ぜひ、ご活用くださいませ。

  • 超軽量・超高速「良品学習」による異常検知デモ(第2弾):立体物の異常検知タスク(更新版)

  • 超軽量・超高速「良品学習」による異常検知デモ(第2弾):立体物の異常検知タスク(更新版)

    ※ データの一部を修正・更新して再アップしました。内容の本質は変わりません。

    検知対象はジェルボールの入ったPETボトルです。良品には青と透明のボールがほぼ均等に入っています。

    動画は実行中の画面をそのまま録画しています。

    <動画の内容>
     ~33秒:良品サンプル3点の画像読みこみ
     ~1分5秒:学習処理(約32秒間 画面非表示)
     1分6秒~:原画像と異常個所のヒートマップ表示

    このデモでは OK品のみを 約 32 秒で学習し、学習後は NG 品に混ざった緑や赤系のボールのほか、ラベルに貼ったシールを検知しています。

    <テスト用 NG 画像>
     ng1:透明ボールのみ
     ng2:青と透明の配合比が異なる(透明ボールが若干多い)。
     ng3:緑のボールが混入
     ng4:赤系のボールが混入
     ng5:ラベルにシールを貼りつけ

    <テスト用 OK 画像>
     ok4:学習サンプルとは別の OK 品の画像

    NG 品からは、ヒートマップ上の異常に対応する位置に反応が出ていますが、OK 品からはほぼ出ていません。異常の検知精度は、学習させる OKサンプルの画像を増やすと向上します。

    この事例では、HDD からの画像の読込みからヒートマップの生成まで、画像1枚あたり約 40~50msec です。 (動画ではヒートマップ画像の HDD への書き込みも含んでおり、これより若干長くなっています。)

    動画の学習と推論は、市販 PC (Intel Core i7) で GPU を使わず実行しています。

    学習画像、テスト画像、処理結果のヒートマップ画像は、以下のリンクからダウンロードいただけます。お手持ちの課題に有効そうか、ぜひご検討ください。

    https://drive.google.com/file/d/1kdO2TbjU-r5fwQISw73gxkeHFf1znjfk/view

    本製品は「Switch Vision® 良品学習版」としてパッケージ化しており、周辺機器や装置との通信・連携機構も備わっています。 お客さまの検査ラインに、速やかかつ柔軟に組み込んでお使いいただけます。

    ご相談やお見積り、無償トライアルのお申し込みは、下記までお気軽にご連絡ください。

    ★ お問い合わせ先 ★
     SOINN ビジネスチーム
     TEL ︓ 050-3196-2118
     E-MAIL︓ biz@soinn.com

  • 超軽量・超高速「良品学習」による異常検知デモ

  • 超軽量・超高速「良品学習」による異常検知デモ

    実行中の画面をそのまま録画しています。

    <動画の内容>
     ~39秒:良品画像の読みこみ
     ~54秒:学習処理(約16秒間 画面非表示)
     55秒~:原画像と異常個所のヒートマップ表示

    本 AI は良品を 15~20 秒程度で学習し、学習後は様々な形状・サイズのシミ、汚れ、抜け、カスレ等を 30~150msec で検知できます。

    動画の学習と推論は、市販 PC (Intel Core i7) で GPU を使わず実現しています。

    各種製品パッケージやプリント基板等の異常検知を、現場設置の市販 PC による簡単な良品学習で実現頂けます。

    本製品は「Switch Vision®良品学習版」としてパッケージ化しており、周辺機器や装置との通信・連携機構も備わっています(一部近日対応予定)。

    お客さまの検査ラインに、速やかかつ柔軟に組み込んでお使いいただけます。

    このデモで用いた、トランプの NG 画像やヒートマップ画像はご提供可能です。お手持ちの課題に有効そうか、ぜひご検討ください。

    ご相談やお見積りは、もちろん無料です。無償トライアル利用もございます。

    デモ画像のご請求や、本製品の詳細は、ぜひお気軽にお問い合わせください。

    ★ お問い合わせ先 ★
     SOINN ビジネスチーム
     TEL ︓ 050-3196-2118
     E-MAIL︓ biz@soinn.com
     https://soinn.com/contact/

  • 2022 国際ロボット展 パテ塗りシステム 解説動画

  • 2022 国際ロボット展で展示した、パテ塗りシステムのデモ動画です。

    デモは、三明機工様のブースの一画をお借りして行いました。

    この動画は三明機工様が作成下さいましたロングバージョンから、抜粋したものです。

    三明機工様に感謝申し上げます。

  • Switch Vision®(教師あり学習版)デモ

  • 非常に計算が軽く、動画のように画像の教師あり学習が可能です。

    Deep Learning との比較では、精度は同等程度、学習画像の数とハードウエアのコストは 1/50~1/100 が期待できます。

    使い勝手は、市販PC (CPU) で AI が何をどこまで学習したのか確認しつつ、①初期学習、②調整と再学習、③追加学習などが可能なため、Switch Vision が圧倒的に優位です。

    NDA 締結後にサンプル画像を貸与頂ければ、弊社でチューニングした学習済みの Switch Vision を無償でトライアル利用いただけます。

    ぜひご活用ください。

  • SOINN 2.0 アルゴリズムを用いた、「ロボットの力触覚マルチモーダル転移学習」

  • ロボットに「完全エッジ AI 」を
    ロボットがロボットに教える時代へ

    SOINN 2.0 アルゴリズムを用いた、「ロボットの力触覚マルチモーダル転移学習」のデモ動画です。

    このデモは、単一のロボット内で転移する「自己転移」です。これをロボット間の転移学習(ロボットがロボットに教える)にも展開可能です。

    市販 CPU を用いた学習・推論時間
     元データの学習: 約 2.5 秒
     転移学習   : 約 1 秒
     推論サイクル : 5 ミリ秒以下

    この技術はスカラーロボット、6軸ロボットの他、多様なマルチモーダル制御に活用頂けます。

    非常に計算が軽く、学習・推論ともエッジで行う「完全エッジ AI 」として運用頂けます。

    ラズパイレベルはもちろん、用途によってはそれ以下の演算能力でもOKです。

    AI トライアル運用の設定もございます。ぜひご活用ください!

  • メカトロテックジャパン2021 公式動画

  • メカトロテックジャパン2021の公式動画において、弊社のデモ展示が紹介されました。

    動画の冒頭で、缶ビールを箱詰めしているのが弊社のロボットです。

    ぜひご覧ください。

  • SOINN® によるマルチモーダル(力触覚)ロボット制御

  • 把持した缶が、箱やほかの缶にあたった力触覚を手掛かりに、動作を自律的に切り替えます。この箱詰めタスクの場合、ロボットへの教示は映像にある一度のみでOK。SOINN® 2.0 の学習時間は、CPU で約 2.5 秒です。近日、本動画のようなマスタスレーブ機構がないロボットでも、お使い頂けるようになります。ロボットのAI制御は、新時代に入りました。
    ----------------
    OS: Microsoft Windows 10 Pro
    プロセッサ:
      Intel(R) Core(TM) i7-6700K CPU、@ 4.00GHz、4001 Mhz、4コア、8ロジカルプロセッサ
    メモリ (RAM):32.0 GB
    学習機構 : SOINN® 2.0
    学習データ: 10次元ベクトルデータ
    データサイズ:763 KB
    データ行数: 2,742 行
    学習時間:  約2.5秒
    学習済 AI モデル:98 KB

  • SOINN®による力触覚を用いたギア組み立て

  • SOINN で制御したロボットによる、力触覚を用いたギヤの組み立てデモです。
    ギヤを回しつつ軽く押し下げることで、歯の噛み合い位置を探って組み立てます。
    この「力触覚+ロボットの挙動」は、ノートPCによる数分のマルチモーダル学習で実現しています。

  • SOINN® による力触覚を用いた体ふき動作

  • SOINN 制御による、リアルタイム&力触覚ロボット制御 のデモです。
    タスクは、人の腕をふく動作です。
    まず教示者が、一人の腕をふく動作を、力加減も含めて1回行います。
    これを学習データとし、SOINNに学習させます。
    学習後は、学習データを収集した人物を含め、身長の異なる3名でテストしています。
    腕の長さが違っても、AI はその人の腕にあわせて、柔軟にロボットを制御しています。
    SOINN の学習は、市販のノートPCで約 30秒です。

  • SOINN® による力触覚を用いた動作順序の学習・推論(迷路)

  • SOINNを使用してロボットに迷路を通過させた動画です。
    力触覚を利用してルートを覚えさせていますので、壁に沿って迷路を進みます。壁に衝突した後、どの方向に行くかの順序を覚えていないと、ゴールすることができません。SOINNは人が教えた動作の順序を覚えることができるのでゴールすることができます。迷路の通路長が変化しても対応が可能です。

  • SOINN®による力触覚を用いたよるバリ取り動作

  • SOINNによるロボット制御(力触覚のマルチモーダル、エッジ学習&運用)のデモです。
    AI 制御は、1:26 頃からです。
    早送り画面(1:18, 1:50, 2:27, 3:00)で、タッパのふちに力が加わり、たわんでいる様子(力触覚も学習して制御)がご覧いただけます。
    人が操作した教示データ3個程度を、ノートPCのCPUのみで、1分程度で学習します。学習後は、SOINNの汎化機能により、大きさの違うタッパにも対応できます。
    マルチモーダルなので、基本どんな情報でも組み合わせが可能です。ここにさらに、視覚、聴覚、重さ、振動などの情報を組み合わせていきます。

  • 半教師あり能動学習による異物検知(食品:トウモロコシ)

  • この動画では、SOINNにより「正常コーン、不良コーン、異物」が混じった状態の動画から半自動で学習させ、不良と異物が検知できるようになる様子をお見せしています。
    ユーザが操作する画面の様子をそのまま撮影しました。

  • 半教師あり能動学習による異物検知(食品:生コーヒー豆)

  • この動画では、SOINNにより焙煎前のコーヒー豆に混じった異物を、半自動で学習させ、コーヒー豆の中から異物を検出できる様子をお見せしています。
    ユーザが操作する画面の稼働の様子をそのまま撮影しました。

  • SWITCH VISION® デモ

  • SOINN社 の独自製品である、SWITCH VISION ® のデモビデオです。 同製品は、どなたにも、現場のPCで、簡便に学習や運用が可能な画像処理製品です。少数の良品画像の学習からスタートして半自動で成長することで、異常検知や異物発見、対象物の識別などのタスクが可能で、多方面で実利用が始まっています。

  • 人工脳「SOINN」を用いて、ネット上の画像から高速機械学習

  • 東京工業大学の研究グループは、独自に開発した機械学習アルゴリズム「SOINN」を発展させ、オンライン学習の安定性を飛躍的に向上させることに成功しました。キーワードを与えるだけで、インターネットの画像検索結果のデータから学習させることが可能です。
    (http://jp.diginfo.tv/v/13-0032-r-jp.php)

    2013/4/25

    旧東京工業大学・長谷川修研究室
    SOINNを活用した超高速オンライン転移学習

    DigInfo TV - http://jp.diginfo.tv

  • ノイジーな実環境で学習・推論して行動できるヒューマノイド

  • DigInfo TV - http://jp.diginfo.tv

    2011/7/28

    旧東京工業大学・長谷川修研究室
    実環境での追加学習機能と推論能力を有する知的ヒューマノイド

  • SOINN® の学習例

  • 旧東京工業大学・長谷川修研究室
    Hasegawa Lab., Tokyo Institute of Technology, Japan
    http://haselab.info/
    English: http://haselab.info/index-e.html

    本動画は、当研究室のWebページで公開しているSOINN Appletの動作画面です。
    This video is the screenshot of SOINN Applet published on our website.

    - SOINN とは?
    自己増殖型ニューラルネットワーク(SOINN)は、Growing Neural Gas(GNG)と自己組織化マップ (SOM) を拡張した、追加学習可能なオンライン教師なし学習手法です。具体的には、非定常(動的に形状が変化する)で、かつ複雑な形状を持つ分布からオンラインで得られる入力に対して、ネットワークを自己組織的に形成し、適切なクラス数と入力分布の位相構造を出力することができます。また、事前にネットワークの構造を決定する必要がないほか、高いノイズ耐性を有し、計算が軽いなどの特長があります。そのため、SOINNは特に実世界のデータ処理に有効であり、画像や音声などのパターンの学習・認識や、実環境でオンライン・リアルタイムに稼働する知能ロボットなどに効果的に活用できます。

SOINN VIDEO (English)

    SOINN artificial brain can now use the internet to learn new things


  • A group at Tokyo Institute of Technology, led by Dr. Osamu Hasegawa, has succeeded in making further advances with SOINN, their machine learning algorithm, which can now use the internet to learn how to perform new tasks. The system, which is under development as an artificial brain for autonomous mental development robots, is currently being used to learn about objects in photos using image searches on the internet. It can also take aspects of other known objects and combine them to make guesses about objects it doesn't yet recognize.
    (http://www.diginfo.tv/v/13-0032-r-en.php)

    25/4/2013

    Tokyo Institute of Technology

    DigInfo TV - http://www.diginfo.tv

    Robot That Can Learn, Think And Act By Itself
    (http://www.youtube.com/watch?v=OC2TTs...)

    License at http://www.paya.com/videos/1165419

  • Robot learns, thinks and acts by itself

  • DigInfo TV - http://diginfo.tv

    28/7/2011

    Tokyo Institute of Technology

    Intelligent humanoid robot capable of learning and decision-making in a real environment

  • Learning of SOINN

  • - What is SOINN?
    The SOINN is an unsupervised online-learning method, which is capable of incremental learning, based on Growing Neural Gas (GNG) and Self-Organizing Map (SOM). For online data that is non-stationary and has complex distribution, it can approximate the distribution of the input data and estimate the appropriate number of classes by forming a network in a self-organizing way. Additionally, it has the following features: unnecessity to predefine its network structure, high robustness to noise, and low computational cost. Thus, the SOINN is especially effective for real-world data processing, and it can be effectively utilized for learning and recognition of patterns such image and sound data, or intelligent robots that run online and in real time in real environment.