
Langfuse AI は、LLM(大規模言語モデル)を活用したAIアプリケーションの構築・監視・デバッグ・最適化を支援するオープンソースのエンジニアリング・運用プラットフォームです。
AI アプリの可観測性とトラッキング、プロンプトの集中管理と協働、アプリ挙動の品質評価と実験、トラッキングデータに基づく多次元指標分析(コスト・遅延・品質など)を含みます。
プラットフォームは各モデル呼び出しのトークン使用量などを追跡し、コストを自動計算します。また、ユーザー・セッション・モデル・プロンプトバージョンなどの軸で細分・分析をサポートします。高コストのポイントを特定するのに役立ちます。
オープンソースの特性により、クラウドホスティングをサポートするほか、Docker を使ってローカルまたはプライベート環境でセルフホストも可能です。
できます。プロンプト管理機能により、技術メンバー以外のユーザーが画面上で直接プロンプトを更新・デプロイできます。開発エンジニアのリリースプロセスを待つ必要はありません。
Python および JavaScript/TypeScript SDK を提供し、LangChain、LlamaIndex など50以上の主要な LLM フレームワーク・ライブラリと統合しています。OpenTelemetry 標準での接続もサポートします。
無料アカウントとクラウドサービスを提供しており、より多機能なエンタープライズサポートを含む複数の料金プランを用意しています。費用の詳細は公式価格ページを参照してください。
オープンソースプラットフォームとしてデータを自社環境で完全にホストするオプションを提供します。クラウドサービスにもセキュリティとコンプライアンスの説明があり、具体的な対策はセキュリティセンターの文書を参照してください。