私たちは、AIエージェントが社会の様々な業務を担う未来に向けて、AIセキュリティ領域の研究・開発を行っています。
現在特に注力しているのが、 Prompt Injection / Indirect Prompt Injection(IPI)などのAI攻撃への対策技術です。
LLMエージェントが外部ツールやデータにアクセスする環境では、 外部コンテンツに埋め込まれた攻撃によって モデルの挙動が乗っ取られるリスクが存在します。
この問題に対して私たちは、
・AIエージェントへの攻撃を自動生成する AI Red Teaming ・攻撃データをもとにした Security AI / Guardrailモデルの学習 ・LLMエージェントの挙動をリアルタイムで監視・制御する AIセキュリティ基盤
などの開発を進めています。
現在はプロダクトの初期フェーズで、 AIセキュリティ領域の研究とプロダクト開発を同時に進めている段階です。
LLMエージェントが社会インフラとして普及する中で、 AIエージェントの安全性を担保する技術は今後ますます重要になります。
この領域の研究開発を加速するため、 AI / LLMエンジニアを募集しています。







.jpg)
