【現状の課題】国産LLM・VLMの自社開発を進める中で、推論・モデル軽量化などの性能最適化がボトルネックとなっています。既存のフレームワークやGPU構成に依存しない、高速・安定・安価な基盤を構築することが急務です。研究開発レベルの知見をプロダクトとして成立させる実装力を持つエンジニアを求めています。【業務内容】自社プロダクトで活用する大規模言語モデル(LLM)およびマルチモーダルモデル(VLM)の推論・学習の高速化を担当します。製品開発チームやリサーチチームと協働しながら、実際のプロダクトに最適な形で技術を落とし込んでいただきます。■具体的な業務内容・LLM/VLM推論パイプラインの最適化(高速化・省メモリ化・分散処理)・モデル圧縮、量子化、蒸留などによる軽量化手法の検討と実装・推論基盤の設計(モデル並列・パイプライン並列・ロードバランシング)・推論時間・コストの定量的改善に向けた性能計測と最適化サイクルの運用※変更の範囲:開発関連業務【チーム構成】PaaSユニット事業責任者(CEO)1名プロダクトマネージャー 1名【開発環境】[組織体制]<PaaSエンジニアチーム>・プロダクトマネージャー1名・フロントエンドエンジニア1名・バックエンドエンジニア1名・機械学習エンジニア3名[開発言語]TypeScript、Vue.js 、Node.js、Python[コンテナ]Docker[IaC]Terraform[クラウド]AWS, Azure【ポジションの魅力】・国産LLMを自社でフルスクラッチ開発している希少な環境・研究成果を“動くプロダクト”として社会に届ける技術開発ができる・OSSや論文に還元できるほどの技術的挑戦を実務で経験可能・LLM/VLM領域の先端研究者と密に協働できる【関連資料】・Stockmark LLM特設LPhttps://llm.stockmark.co.jp/・業務AIの実装支援プラットフォーム「 SAT 」https://sat.stockmark.co.jp/
- 勤務地
- 東京都
- 年収
- 755万円~1305万円
- 職種
- リサーチャー・データ集計