

概要
あなたのAIサービス、「作った」だけで終わっていませんか?
生成AIの開発・検証フェーズを乗り越え、いよいよ本番リリースへ。しかし多くの企業が、そこで想定外の壁にぶつかります。
「レスポンスが遅くてユーザーが離脱する」「GPUコストが膨らんで利益が出ない」「スケールしたらインフラが不安定になった」
これらはすべて、AIの推論フェーズ特有の課題です。開発成功の喜びが、サービス提供の苦難に変わる前に、打ち手があります。
本セミナーでは、AI開発のエキスパートと、国内DCネットワークのプロが一堂に会し、ソフトウェアとインフラの垂直統合によるAI事業加速のリアルをお伝えします。
当日は書籍『実践的パフォーマンスエンジニアリングによるAI高速化』の内容をベースにした実践的な技術解説に加え、GMI Cloud との提携による最先端GPU基盤の構築事例を日本初公開予定です。
セミナー終了後には懇親会も設けております。同じ課題を持つ参加者同士で情報交換したり、具体的な技術テーマについて、登壇者とディスカッションすることも可能です。
登壇者
中原 晃宏株式会社オプテージソリューション事業推進本部 データセンタービジネス推進部 マネージャー
浅原 明広株式会社フィックスターズCMO
講演内容
LLM推論を劇的に速くする具体的な手法(モデル圧縮・最適化の実践知識)
推論コスト削減のための設計アプローチ
次世代AIチップ(NVIDIA以外の選択肢)と今後の技術動向
低レイテンシ・高セキュリティを両立する国内データセンター活用術
OPATGE × GMI Cloud連携による最先端GPU基盤のご紹介
合計45分
【交流会のお知らせ】講演終了後、講演内容や技術に関する質問、参加者同士の交流の場として軽食・ドリンクをご用意しております。
受講で得られるもの
推論コスト問題を「構造的に」理解できるレイテンシ悪化がユーザー離脱・利益圧迫につながるメカニズムを把握し、経営・開発の両サイドで課題を語れるようになります。
LLM推論を速くする具体的な手法を習得できるモデル圧縮や推論最適化の実践的アプローチを学び、明日から自社エンジニアと議論できる「勘所」を持ち帰れます。
国内AIインフラの選定基準を身につけられるレイテンシ・セキュリティ・拡張性の観点から自社サービスに最適なインフラを評価・選定...
プラットフォーム: techplay / 主催者: フィックスターズ