AI開発の常識を覆す!Lemurian Labs、$28M調達で「Tachyon」がGPU互換性の壁を破壊

AI開発の常識を覆す!Lemurian Labs、$28M調達で「Tachyon」がGPU互換性の壁を破壊

テクノロジー機械学習AI資金調達スタートアップコンパイラLemurian Labs

AI開発のスタートアップであるLemurian Labsが、AIモデルコンパイラ「Tachyon」の開発・普及を加速させるために、2800万ドルのシリーズA資金調達を完了しました。この資金調達は、Pebblebed VenturesとHexagonが主導し、過去の投資家であるOval Park Capitalなども参加しました。Tachyonは、AIモデルのハードウェア間の互換性問題を解消し、パフォーマンス向上とコスト削減に貢献することが期待されています。

AI開発におけるハードウェアの壁とLemurian Labsの挑戦

AIモデルとGPUの複雑な関係

AIモデルは、GPUのような並列処理に特化した多数のコア上で効率的に動作するように最適化されたコード(カーネル)の集合体です。GPUの並列処理能力は、逐次処理に比べて計算を大幅に高速化しますが、その最適化はGPUメーカーごとに異なり、互換性の問題を引き起こします。

Tachyonが解決する「GPU互換性の壁」

従来、あるGPUメーカー向けに最適化されたAIモデルは、他のメーカーのGPUではそのまま動作しないことが多く、移植には多大な時間と高度な専門知識が必要でした。Lemurian Labsが開発したコンパイラ「Tachyon」は、この課題を自動化し、開発者が一度作成したAIモデルを、主要なコード変更なしにNvidia、Intel、AMDといった異なるメーカーのGPU上で実行可能にします。

パフォーマンス向上と大幅なコスト削減

Tachyonは、AIモデルの移植性を高めるだけでなく、パフォーマンスも向上させます。これによりハードウェアの利用率が改善され、AIモデルの推論コストを最大で60%から80%削減できるとLemurian Labsは試算しています。この効率化は、「オペレーター融合」と呼ばれる手法によって実現されます。これは、GPUがメモリとの間でデータをやり取りする回数を減らし、コアがデータ到着を待つ時間を短縮することで計算を高速化する技術です。

開発者フレンドリーな開発環境

Tachyonは、開発者がAIモデルのコンパイル方法をカスタマイズできる、Pythonベースのドメイン固有言語(DSL)「Tachyon DSL」も提供しています。さらに、デプロイ後も動的ランタイムモジュールがパフォーマンスを継続的に最適化します。

AI開発の未来を再定義するTachyonのインパクト

ハードウェアとソフトウェアの調和によるAI開発の民主化

Tachyonは、AI開発者が直面していた「特定のベンダーに依存した垂直統合スタック」か、「壊れやすく書き換えが必要な移植性」かの二者択一を解消します。これにより、多様なハードウェアエコシステム上でAIモデルをシームレスに展開できるようになり、AI技術へのアクセスが民主化され、より多くの企業や研究者が高度なAI機能を活用できるようになります。

イノベーション加速とAI開発ツールの進化

推論コストの大幅な削減は、経済的な障壁を取り除き、様々な産業におけるイノベーションのペースを加速させることが期待されます。Lemurian Labsの成功は、AIモデルの複雑化が進む中で、パフォーマンス最適化とクロスプラットフォーム互換性を確保する、よりアクセスしやすく効率的なAI開発ツールの需要の高まりを示しています。来年夏のベータ版ローンチは、AI開発と展開がより効率的かつ費用対効果の高いものになる未来への期待を高めています。

画像: AIによる生成