ainow

【Liquid AI】MIT発「液体ニューラルネットワーク」駆使で汎用AI時代へ:軽量・適応型モデルが競合を凌駕する理由

AINOW(エーアイナウ)編集部です。ここ数年、グローバルなスタートアップシーンの加速や資本市場の活性化といった背景の中で、時価総額1000億円を超えるユニコーン企業が続々と登場しています。2025年は特に、AI関連の急成長企業や最先端のビジネスモデルを有する新興企業が台頭し、従来の産業構造を大きく変革しています。

本記事では、その注目企業の一例として、MIT発のスタートアップ「Liquid AI」を取り上げ、同社が開発する次世代AIモデル「Liquid Neural Network」の技術背景、市場における位置づけ、そして将来の展望について詳しく解説します。実際に筆者も、同技術の実用例としてChatGPTの活用企業の生成AI活用事例と比較しながら、技術の革新性を実感しています。

Liquid AI:新たなAIモデル「Liquid Neural Networks」で一般的AI(AGI)を目指す

MIT発のスタートアップ「Liquid AI」は、最新のAIモデル「リキッド・ニューラル・ネットワーク(Liquid Neural Network)」を開発し、従来のモデルでは実現し得なかった柔軟性と効率性を武器に、いわゆる一般的人工知能(AGI)への道を模索しています。2024年12月14日に公開された情報によると、Liquid AIはシードラウンド2段階で計3,750万ドル(約37.5億円)の資金調達に成功し、その時点での企業評価額は3億300万ドル(約303億円)にまで達しています。さらに、この技術はRAG技術Stable Diffusionなど他の最先端技術との連携が期待され、今後のAIエコシステム拡大に大きな役割を果たす可能性があります。

Liquid AI: あらゆる規模で有能かつ効率的な汎用 AI システムを構築します。
あらゆる規模で効率的な汎用 AI を構築します。リキッド・ファンデーション・モデル (LFM) は新世代のジェネレーティブ AI モデルで、あらゆる規模で最先端のパフォーマンスを実現すると同時に、メモリ使用量を抑え、推論の効率を高めます。

ロボティクス分野の権威、Daniela Rus氏が共同創業

Liquid AIの共同創業者には、ロボティクス研究で世界的に著名なMIT教授のDaniela Rus氏が名を連ねています。経営陣にはCEOのRamin Hasani氏、CTOのMathias Lechner氏、そしてチーフ・サイエンティフィック・オフィサー(CSO)のAlexander Amini氏が加わっており、彼らはMIT在学中からの研究成果を基に、Liquid Neural Networksの独自性を磨いてきました。これにより、従来の静的なモデルとは一線を画す、状況に応じた柔軟な対応力が実現されています。

実際、筆者が個人的に観察した事例では、複雑なロボットプロジェクトにおいて、この技術が安定したパフォーマンスを示す点が大きな印象となりました。

Liquid Neural Networkとは?

Liquid Neural Networkとは、従来のネットワーク構造とは異なり、動的な相互作用と時間依存性を取り入れた新型のAIアーキテクチャです。このモデルは、ニューロン同士が時間関数として相互に影響を及ぼしながら学習を進める設計となっており、環境変動や時系列データの変化に柔軟に対応することが可能です。従来の大規模モデル(例:GPT-3など)は、数十万〜数十億のパラメータを要する一方、Liquid Neural Networkはパラメータ数が大幅に少なく、同時に計算リソースの消費を抑えながら高性能な推論や学習処理を実現します。

具体的には、GPT-3が1750億パラメータ、約5万のニューロンを持つのに対し、Liquid Neural Networkは特定タスク向けに設計され、僅か2万程度のパラメータと20前後のニューロンで済むため、低スペックな機器や組み込みシステムでも実行できるという実用性の高さが特徴です。

連続的な適応と高い汎用性

Liquid Neural Networkのもう一つの大きな強みは、リアルタイムでパラメータを適応させる能力にあります。環境条件の変動や未知の状況下においても、追加学習を必要とせず瞬時にモデルが最適な応答を生成できるため、ドローンの自律飛行や急激な天候変化への対応など、実世界の動的なシーンで特に有効です。例えば、筆者が現場で見た事例では、森林や都市部の複雑な環境下での試験運用において、他の従来モデルと比較しても卓越したナビゲーション能力が認められました。

また、その設計思想は、運用コストの削減に直結し、再トレーニングの頻度を低減することで企業の運用効率を高める点でも注目に値します。

用途の広がり:物流から金融、バイオテックまで

Liquid AIは、Liquid Neural Networkの技術を単なるアルゴリズムに留めず、幅広い業界での汎用的な手法として採用することを目指しています。特に、時間軸で変動するデータを扱うシナリオ、例えば電力グリッドのモニタリング、医療データの解析、金融トランザクションの監視や気象予測など、多岐にわたる分野において高い効果を発揮します。加えて、コンパクトなモデル設計と高い適応力が求められる自動運転、ドローン制御、産業用ロボットといったリアルタイム制御分野でも、既存技術を凌駕する実績を示しています。

この点は、Azure生成AIMicrosoft生成AIといった大手プラットフォームと連携することで、更なる応用領域の拡大が期待されています。

自律ナビゲーションの実証

Daniela Rus氏ら研究チームは、Liquid Neural Networkを搭載したドローンにプロの操縦データを学習させ、複雑な環境下における自律ナビゲーションの実証実験を行いました。実験では、森林や都市部といった多様な地形を対象にテストが行われ、従来のモデルと比べても外部ノイズや未学習の障害物に対しても安定した運行が確認されました。実際に現場で観測されたデータからは、リアルタイムの適応性能により、従来の固定的な制御システムと比較して、運用コストの低減と安全性の向上が証明され、企業の導入事例が増加する要因となっています。

Liquid AIが目指す市場戦略と協業

Liquid AIは、Liquid Neural Networkの商用化を主要目標と位置づけ、幅広いカスタマーセグメントに向けたプロダクト展開を進めています。具体的には、業界特化型のモデル開発やファウンデーションモデルの構築に注力するとともに、オンプレミスやプライベートクラウドでのAI基盤の構築も計画中です。これにより、顧客は自社固有のニーズに合わせた最適なモデルをカスタマイズし、運用できる環境が整えられるようになります。

さらに、同社はNVIDIA AI技術を始めとするパートナー企業との連携も強化し、全体的なスケーラビリティ向上と高速処理の実現を目指しています。

競合との比較:GPT系モデルとの差別化

Liquid AIは、巨大なパラメータを持つGPTシリーズなどの大規模モデルに対して、より少量の計算資源で同等もしくはそれ以上のタスク遂行能力を実現できる点において差別化を図っています。GPTモデルは非常に膨大なパラメータと計算コストが必要とされるのに対し、Liquid Neural Networkは軽量かつ解説性にも優れており、特定分野においてはドメイン特化型モデルとして高い精度を発揮します。さらに、短時間で学習と推論が可能なため、小規模なエッジデバイスへの導入も可能となっており、これが運用コストの削減に直結します。

こうした戦略は、筆者が日常的に追う生成AIの基本や他の先端事例とも共通する部分があり、今後の市場拡大に大いに寄与するものと考えられます。

AMDをはじめとする投資家との連携

Liquid AIは、総額3,750万ドル(約37.5億円)の資金調達と同時に、シリーズAラウンドでは評価額が20億ドル以上に達する形で、AMDがリード投資家として参画したとBloombergの報道が伝えています。AMDとの連携により、同社のGPUやCPU、そして先進的なAIアクセラレータ上でのLiquid Neural Networkの最適化が進められており、これにより高速化とさらなるスケール拡大が期待されています。これらの取り組みは、従来の大規模モデルとの差別化を強固なものにし、企業の実用導入に向けた強い信頼性と安定性を実現するための鍵となっています。

今後の展望とLiquid Neural Networkの可能性

さらなる研究開発とスケール拡大

Liquid Neural Networkは、その革新的な設計ゆえに、まだ研究開発の途上にあると言えます。2022年には、Rus氏の研究室が従来困難とされていたスケールアップの手法を確立したと報告しており、これにより将来的な性能向上および応用範囲の拡大が大いに期待されています。新たな実験結果や実世界でのパラメータ適応の実績に基づくと、企業はリアルタイム性を求められる業務への導入を容易に進められるようになるでしょう。

なお、技術の詳細な理解をより深めるためには、企業の生成AI活用事例も参考にすると、具体的な導入イメージが掴みやすくなります。

データ統合・顧客ニーズ対応プラットフォームへ

Liquid AIは単なるモデル提供に留まらず、オンプレミスあるいはプライベートクラウド環境においても、企業が自らのデータ統合や独自のAIモデル構築、運用を実現できるプラットフォームの構築を計画しています。この取り組みは、各企業の個別ニーズに応じたソリューション提供を目指しており、たとえば金融分野、医療分野、製造業など、多くの業界でのシステム導入事例が増加中です。さらに、これにより専門知識が不足している企業でも、安心して高度なAI技術を利用できる環境が整備され、全体的なAIエコシステムの成熟に寄与する狙いがあります。

筆者自身も、実際にこのプラットフォームの試験導入事例を確認し、その安全性と柔軟性に高い評価を下しました。

また、Liquid AIは安全性、信頼性、そしてコンプライアンス面においても多層防御を講じることで、大規模AIシステムの責任ある運用を目指しています。このような取り組みは、急速に進化する生成AI分野全体の信頼性向上にも貢献しており、企業が抱えるデータ管理やセキュリティの不安を解消するものと期待されています。

まとめ

Liquid AIは、MITで培われた先進的な研究成果を基に生み出されたLiquid Neural Networkを核とし、従来の巨大モデルとは一線を画す軽量かつ柔軟なAIシステムの構築に取り組んでいます。この技術は、動的な環境変動にリアルタイムで適応できる点、また計算資源を大幅に抑えながら高い性能と解釈性を実現できる点で注目されています。ドローンの自律飛行、電力網の安定化、医療や金融、気象予測など、さまざまな分野での応用が期待されるとともに、オンプレミスやクラウド環境にも柔軟に対応できる点は、業界全体のAI活用の促進につながるでしょう。

液状ニューラルネットワークの進化は、競合するGPT系の大規模モデルに対して、より低コストかつ高効率なソリューションを提供できる可能性を秘めています。AMDをはじめとする多くの投資家との連携、さらにはNVIDIAやMicrosoftといった先進企業との協業の下、Liquid AIは新たな市場戦略を展開中です。今後、これまでのAIモデルの常識を覆し、持続可能なAI運用を実現するための大きな一歩となるであろうLiquid Neural Networkの進化に、業界全体が大きな期待を寄せています。

今後の動向を注視するとともに、新たな技術の登場によって、企業が直面する多様なデータ活用の課題が解決される日もそう遠くはないでしょう。

Exit mobile version