この男子学生Daniil Frantsさんは、父親にプログラミングの基本を教わっただけで、あとは、グーグルで検索したりして独学で研究開発しました。
それが、LTCCS (Live-Time Closed Captioning System)です。
つまり、リアルタイムで相手が話ししている内容を字幕として(メガネに)映し出すシステムです。
聴覚に障がいがある人たちが待ち望んでいたような技術です。
最初は、グーグルメガネをいじって応用できないか考えたそうですが、
それが無理だとわかり、自分で開発したそうです。
14歳でマサチューセッツ工科大学のエリート中のエリートが集まる
メディアラボでインターンを経験。
そこでは、インテリジェントな義肢の研究に参加したそうです。
さらには、世界中で利用されているサイバーアートプロジェクトにも加わりました。
有名なところでは、エルミタージュ美術館や日本の森美術館です。
このLTCCS、2016年の夏までに正式なプロトタイプの完成を目指しており、
最終的な予定小売価格は$750(米ドル)。
社名はズバリ、Frants Inovators, Inc.
人の生活を向上させることを目的としたイノベーションを行うことが会社のミッションです。
副社長は14歳、その他のメンバーは全員18歳以下で、ほとんどが同じ高校に通っている学生です。
次の時代を担っていく世代のこれからの活躍が楽しみです。
追記、英語の場合、聴覚障がい者が唇の動きで読み取れるのは、わずか30%〜40%にとどまるそうです。たとえば、「b」や「p」を唇の動きは同じですので読み分けができません。
(参照: Smithsonian)