TechCrunch%20Hackathon%20Osaka%E3%81%A7%E3%83%8B%E3%83%83%E3%83%9D%E3%83%B3%E3%81%AE%E3%83%AC%E3%82%B4%E3%83%9E%E3%82%A4%E3%83%B3%E3%83%89%E3%82%B9%E3%83%88%E3%83%BC%E3%83%A0%E3%80%8CStudino%E3%80%8D%E3%82%92%E8%A6%8B%E3%81%9F%EF%BC%81

TechCrunch Hackathon Osakaでニッポンのレゴマインドストーム「Studino」を見た!

すでに別記事で最優秀賞と優秀賞をご報告したように、TechCrunch Japanは先日、大阪市と共催という形で大阪でハッカソンを開催した。この記事では最優秀賞、優秀賞に入選しなかったものの、デバイスなどを提供していただいた企業から副賞を贈られたサービス名(チーム名)と、そのプロダクト概要を紹介する。いずれも明確な課題意識を前面に押し出していて、ハッカソンの初日に講演したMoffの高萩昭範氏のいう「課題が発見できるかどうか重要」というアドバイスに従ったものだったと言えそうだ。

・inter”FACE”(KMNWK)

表情に連動して動くオモチャ。オモチャに向かって笑うとブロックでできた小さなロボが床で転がり出す。デモではオモチャではなくスマフォに対して笑うというものだったが、デモ担当者が頑張って何度か微笑みかけるとステージ上でコロンとオモチャが転がった。というだけのデモなのだが、ハッカソンなので大変に盛り上がった。子どもがやればカワイイだろうなとか、「笑顔」を独居老人が冷蔵庫を開けるためのキーとして使うことで笑顔を日常に取り入れるというのも、ありかもなという感じで制作したチームも審査員らも盛り上がった。さらにデモでは怒った顔、ドヤ顔も認識し、それぞれに合わせた反応をオモチャロボが見せた。

interface

笑うと転がるオモチャのinterFACE

interFACEの顔認識はPUXのAPIを使い、オモチャ部分は「Studuino」というプロダクトを利用していた。Studinoというのは大阪の知育玩具メーカー、Artecの提供だったのだが、これは「日本版レゴマインドストーム」とうべき製品シリーズだ。レゴと違って、組み方の自由度が高い立方体のブロックを使うのが特徴の1つ。立方体ブロックを中心に、三角形(三角柱)や直方体のブロック、サーボモーター、ギヤボックス、ブザー、音センサーなどを組み合わせられるほか、Arduino互換の基板も搭載可能。開発言語に、MIT発の教育用GUIプログラミング言語「Scratch」が使えるというスグレモノだ。Scratchは制御構造や分岐も使える本格的プログラミング言語という側面もある。そこでStudinoでは「Scratchはまだ早い」という段階の子どもや初心者でも使えるようにと、独自のアイコン・プログラミング環境も提供している。Studinoでは一般的なArduinoの開発環境とCを使った開発も可能で、アイコンプログラミングをCへコンパイルした結果をさらに編集するといった開発もできるのだそうだ。

・秘密のささやき(4M)

チーム4Mが作った「秘密のささやき」はコップ式のデバイスだった。街中にあるポスターに近づけると、写真に写った顔を認識をして、アイドルなどの声が吐息混じりで聞こえるというプロダクト(サービス)だ。デモを見る前も、見た後も、応用としてはぼくは文字通りドン引きだったのだが、コップの中に、カメラとファン(吐息に聞こえるように気流を作る)、LED、mbedとRasberryPiを詰め込み、声のデータはAmazon EC2に入れて、PUXの顔認識APIと結び付けるというレベルの高い実装をたった2日でデモ可能なレベルに持っていったハック力には脱帽。

system

デモは個人的にドン引きだったが実装は高度

ちなみに今回のハッカソンではARM社にmbed(エンベッドと読む)を提供頂いたのだが「センサーの入力を受け付けてデバイスを制御」といった以上の複雑なことをするためには、Arduinoよりもmbedのようなデバイスのほうが向いているようだ。Arduinoが生のインターフェイスをCの無限ループで扱うのに対して、mbedはよりOSぽくなっていて、複数プロセス生成ができるほか、各種ペリフェラルはAPIで抽象化されていてC++で開発できるそうだ。ファブレスのARMの製品なのでmbedは単一製品のことではなく、4社から提供されている共通仕様を満たすデバイス群のこと。モノクロ液晶や加速度センサー、BLE、有線/無線LANまで搭載され、32ビットプロセッサを搭載する「全部入り」というようなデバイスもある。開発も、Webブラウザ上にGUIの開発環境があってコンパイルはクラウドの向こう側で行ってバイナリをUSBでマスストレージとして認識されるmbedに転送するだけという、組み込みぽくないモダンさ。

mbed

ARMのmbedは最近種類も増えてきてるそう

・COM × TV(MB4)

視聴者と視聴者がテレビを介して手軽にコミニュケーションを取れるサービス。テレビの前の状況をセンサーで読み取ることで、状況に適したコミニュケーションを提供する。オムロンの顔認識センサーと、NTTドコモの音声認識APIを使っていて、テキスト入力ではなく、声でコミュニケーションするデモを行った。

・Music Power!(ながお)

顔を動画撮影し、表情から感情を読み取る。その感情に合わせた音楽を届けるサービス。感情の読み取りに使ったオムロンのデバイスと、感情を2次元のマップ上に100種に分類して楽曲データに紐付けているGracenoteのAPIを変換する実装に工夫あり。楽曲そのものはYouTubeで再生。

・見守りプレイヤー(見守り隊)

独居老人など見守りが必要な家庭の洗面台、冷蔵庫、テレビなど1日に何度も接触するポイントに設置された画像センサーによって、そのときどきの気分に合わせた音楽を配信するサービス。見守りする管理者側に気分情報の配信を行うほか、緊急時には異常アラートを通知。こうした見守りデバイスやサービスはすでにあるが、「見られてる感」という導者側の心理的抵抗を取り除くという課題に注目している点がユニーク。

・feesic(マウロ・ゴメス)

日中離れ離れで生活する親子(母子)をつなぐコミュニケーションサービス。幼稚園など離れている子どもの感情をセンサーで読み取り、それを音楽として母親に提供。BGMとして流すことで、例えば家事をしながら子どもと同じ気持ちで生活することができる。

・リアル・ソーシャル・曲がり角(RSM)

「まるでドラマのワンシーンのように曲がり角で男女が出逢うことができます」というコンセプトで、あまりIoTと関係はないが、位置情報や楽曲解析APIを使って、スマフォを持った2人が曲がり角で出会う演出をするサービス。寸劇ありのネタ系デモで、会場では最もウケた発表の1つ。

・Head Scratch(ヘッドスクラッチ)

近接通信を利用した音楽交換アプリケーションサービス。自分の聴いてる音楽を人に聞いてほしいとか、逆に、あの人の聴いてる音楽を知りたいというときに、再生中の音楽を同期させるサービス。

・DIVE(PS4)

音楽のムードに合わせたビジュアルコンテンツや、ビートに合わせたエレクトリックスティミュレーションを提供するデバイス。エレクトリックスティミュレーションというのは、気取った言い方だが、実際はオムロンの低周波治療器を腕に巻き付けて、ビートに合わせてピクピク来るとうもの。音をAPIに投げることで、楽曲やCM情報を返してくれるのがGracenoteが提供しいてるAPIだが、最近は新たに楽曲解析APIというものを提供していて、曲のイントロ、Aメロ、Bメロといったセグメントを分析した結果を教えてくれるサービスがあるそうだ。DIVEはこれを応用。派手なビジュアル演出は、エコライザーの発展形という印象もあった。

・Nerma e Doll(ぱっくす)

「ネルマエドール」と読むそうだ。「寝る直前までディスプレイを見続けてしまう生活習慣を改善する」という課題からスタートしたプロダクト。PUXが提供する顔認識や音声認識・合成が可能な小型ロボ、「Rapiro」を使った実装。ポイントは、ユーザー側でなく、モノのほうから語りかけることで会話のきっかけを提供すること、会話後の寝る前に音楽を流すことで、入眠の雰囲気と時間を生み出すこと、という。デモでは、ちょっと認識に課題が感じられて「孤独さを緩和させる」はずが、何となくシラーっとした寂寥感が漂った気もしなくはないが、「眠りに落ちる前までディスプレイを見続けてしまって、入眠障害を抱えている」という多くの現代人が密かに悩んでいそうな問題に対して「音」で切り込んだ点は素晴らしいと思う。

広告

blog comments powered by Disqus