SOINN

VIDEO SOINN エッジAI・汎用AIを機器・ロボット・プラントへ

VIDEO

SOINN動画のご紹介

こちらではSOINNを使用したデモンストレーションの動画をご紹介しております。

    Switch Vision®(教師あり学習版)デモ

  • 非常に計算が軽く、動画のように画像の教師あり学習が可能です。

    Deep Learning との比較では、精度は同等程度、学習画像の数とハードウエアのコストは 1/50~1/100 が期待できます。

    使い勝手は、市販PC (CPU) で AI が何をどこまで学習したのか確認しつつ、①初期学習、②調整と再学習、③追加学習などが可能なため、Switch Vision が圧倒的に優位です。

    NDA 締結後にサンプル画像を貸与頂ければ、弊社でチューニングした学習済みの Switch Vision を無償でトライアル利用いただけます。

    ぜひご活用ください。

  • SOINN 2.0 アルゴリズムを用いた、「ロボットの力触覚マルチモーダル転移学習」

  • ロボットに「完全エッジ AI 」を
    ロボットがロボットに教える時代へ

    SOINN 2.0 アルゴリズムを用いた、「ロボットの力触覚マルチモーダル転移学習」のデモ動画です。

    このデモは、単一のロボット内で転移する「自己転移」です。これをロボット間の転移学習(ロボットがロボットに教える)にも展開可能です。

    市販 CPU を用いた学習・推論時間
     元データの学習: 約 2.5 秒
     転移学習   : 約 1 秒
     推論サイクル : 5 ミリ秒以下

    この技術はスカラーロボット、6軸ロボットの他、多様なマルチモーダル制御に活用頂けます。

    非常に計算が軽く、学習・推論ともエッジで行う「完全エッジ AI 」として運用頂けます。

    ラズパイレベルはもちろん、用途によってはそれ以下の演算能力でもOKです。

    AI トライアル運用の設定もございます。ぜひご活用ください!

  • メカトロテックジャパン2021 公式動画

  • メカトロテックジャパン2021の公式動画において、弊社のデモ展示が紹介されました。

    動画の冒頭で、缶ビールを箱詰めしているのが弊社のロボットです。

    ぜひご覧ください。

  • SOINN® によるマルチモーダル(力触覚)ロボット制御

  • 把持した缶が、箱やほかの缶にあたった力触覚を手掛かりに、動作を自律的に切り替えます。この箱詰めタスクの場合、ロボットへの教示は映像にある一度のみでOK。SOINN® 2.0 の学習時間は、CPU で約 2.5 秒です。近日、本動画のようなマスタスレーブ機構がないロボットでも、お使い頂けるようになります。ロボットのAI制御は、新時代に入りました。
    ----------------
    OS: Microsoft Windows 10 Pro
    プロセッサ:
      Intel(R) Core(TM) i7-6700K CPU、@ 4.00GHz、4001 Mhz、4コア、8ロジカルプロセッサ
    メモリ (RAM):32.0 GB
    学習機構 : SOINN® 2.0
    学習データ: 10次元ベクトルデータ
    データサイズ:763 KB
    データ行数: 2,742 行
    学習時間:  約2.5秒
    学習済 AI モデル:98 KB

  • SOINN®による力触覚を用いたギア組み立て

  • SOINN で制御したロボットによる、力触覚を用いたギヤの組み立てデモです。
    ギヤを回しつつ軽く押し下げることで、歯の噛み合い位置を探って組み立てます。
    この「力触覚+ロボットの挙動」は、ノートPCによる数分のマルチモーダル学習で実現しています。

  • SOINN® による力触覚を用いた体ふき動作

  • SOINN 制御による、リアルタイム&力触覚ロボット制御 のデモです。
    タスクは、人の腕をふく動作です。
    まず教示者が、一人の腕をふく動作を、力加減も含めて1回行います。
    これを学習データとし、SOINNに学習させます。
    学習後は、学習データを収集した人物を含め、身長の異なる3名でテストしています。
    腕の長さが違っても、AI はその人の腕にあわせて、柔軟にロボットを制御しています。
    SOINN の学習は、市販のノートPCで約 30秒です。

  • SOINN® による力触覚を用いた動作順序の学習・推論(迷路)

  • SOINNを使用してロボットに迷路を通過させた動画です。
    力触覚を利用してルートを覚えさせていますので、壁に沿って迷路を進みます。壁に衝突した後、どの方向に行くかの順序を覚えていないと、ゴールすることができません。SOINNは人が教えた動作の順序を覚えることができるのでゴールすることができます。迷路の通路長が変化しても対応が可能です。

  • SOINN®による力触覚を用いたよるバリ取り動作

  • SOINNによるロボット制御(力触覚のマルチモーダル、エッジ学習&運用)のデモです。
    AI 制御は、1:26 頃からです。
    早送り画面(1:18, 1:50, 2:27, 3:00)で、タッパのふちに力が加わり、たわんでいる様子(力触覚も学習して制御)がご覧いただけます。
    人が操作した教示データ3個程度を、ノートPCのCPUのみで、1分程度で学習します。学習後は、SOINNの汎化機能により、大きさの違うタッパにも対応できます。
    マルチモーダルなので、基本どんな情報でも組み合わせが可能です。ここにさらに、視覚、聴覚、重さ、振動などの情報を組み合わせていきます。

  • 半教師あり能動学習による異物検知(食品:トウモロコシ)

  • この動画では、SOINNにより「正常コーン、不良コーン、異物」が混じった状態の動画から半自動で学習させ、不良と異物が検知できるようになる様子をお見せしています。
    ユーザが操作する画面の様子をそのまま撮影しました。

  • 半教師あり能動学習による異物検知(食品:生コーヒー豆)

  • この動画では、SOINNにより焙煎前のコーヒー豆に混じった異物を、半自動で学習させ、コーヒー豆の中から異物を検出できる様子をお見せしています。
    ユーザが操作する画面の稼働の様子をそのまま撮影しました。

  • SWITCH VISION® デモ

  • SOINN社 の独自製品である、SWITCH VISION ® のデモビデオです。 同製品は、どなたにも、現場のPCで、簡便に学習や運用が可能な画像処理製品です。少数の良品画像の学習からスタートして半自動で成長することで、異常検知や異物発見、対象物の識別などのタスクが可能で、多方面で実利用が始まっています。

  • 人工脳「SOINN」を用いて、ネット上の画像から高速機械学習

  • 東京工業大学の研究グループは、独自に開発した機械学習アルゴリズム「SOINN」を発展させ、オンライン学習の安定性を飛躍的に向上させることに成功しました。キーワードを与えるだけで、インターネットの画像検索結果のデータから学習させることが可能です。
    (http://jp.diginfo.tv/v/13-0032-r-jp.php)

    2013/4/25

    旧東京工業大学・長谷川修研究室
    SOINNを活用した超高速オンライン転移学習

    DigInfo TV - http://jp.diginfo.tv

  • ノイジーな実環境で学習・推論して行動できるヒューマノイド

  • DigInfo TV - http://jp.diginfo.tv

    2011/7/28

    旧東京工業大学・長谷川修研究室
    実環境での追加学習機能と推論能力を有する知的ヒューマノイド

  • SOINN® の学習例

  • 旧東京工業大学・長谷川修研究室
    Hasegawa Lab., Tokyo Institute of Technology, Japan
    http://haselab.info/
    English: http://haselab.info/index-e.html

    本動画は、当研究室のWebページで公開しているSOINN Appletの動作画面です。
    This video is the screenshot of SOINN Applet published on our website.

    - SOINN とは?
    自己増殖型ニューラルネットワーク(SOINN)は、Growing Neural Gas(GNG)と自己組織化マップ (SOM) を拡張した、追加学習可能なオンライン教師なし学習手法です。具体的には、非定常(動的に形状が変化する)で、かつ複雑な形状を持つ分布からオンラインで得られる入力に対して、ネットワークを自己組織的に形成し、適切なクラス数と入力分布の位相構造を出力することができます。また、事前にネットワークの構造を決定する必要がないほか、高いノイズ耐性を有し、計算が軽いなどの特長があります。そのため、SOINNは特に実世界のデータ処理に有効であり、画像や音声などのパターンの学習・認識や、実環境でオンライン・リアルタイムに稼働する知能ロボットなどに効果的に活用できます。

SOINN VIDEO (English)

    SOINN artificial brain can now use the internet to learn new things


  • A group at Tokyo Institute of Technology, led by Dr. Osamu Hasegawa, has succeeded in making further advances with SOINN, their machine learning algorithm, which can now use the internet to learn how to perform new tasks. The system, which is under development as an artificial brain for autonomous mental development robots, is currently being used to learn about objects in photos using image searches on the internet. It can also take aspects of other known objects and combine them to make guesses about objects it doesn't yet recognize.
    (http://www.diginfo.tv/v/13-0032-r-en.php)

    25/4/2013

    Tokyo Institute of Technology

    DigInfo TV - http://www.diginfo.tv

    Robot That Can Learn, Think And Act By Itself
    (http://www.youtube.com/watch?v=OC2TTs...)

    License at http://www.paya.com/videos/1165419

  • Robot learns, thinks and acts by itself

  • DigInfo TV - http://diginfo.tv

    28/7/2011

    Tokyo Institute of Technology

    Intelligent humanoid robot capable of learning and decision-making in a real environment

  • Learning of SOINN

  • - What is SOINN?
    The SOINN is an unsupervised online-learning method, which is capable of incremental learning, based on Growing Neural Gas (GNG) and Self-Organizing Map (SOM). For online data that is non-stationary and has complex distribution, it can approximate the distribution of the input data and estimate the appropriate number of classes by forming a network in a self-organizing way. Additionally, it has the following features: unnecessity to predefine its network structure, high robustness to noise, and low computational cost. Thus, the SOINN is especially effective for real-world data processing, and it can be effectively utilized for learning and recognition of patterns such image and sound data, or intelligent robots that run online and in real time in real environment.