LLM運用が研究室や病院内の閉域サーバーで完結。
ゲノムや診療情報などの高機密データを外部に出すことなく、対話ベースによる解析のサポートが実現します。
仮説生成、解析コードの自動生成、結果解釈までを一貫支援。
研究サイクルの短縮と運用リスクの低減を同時に実現する環境を提供します。

About

In-Lab LLM スターターキット

ライフサイエンス分野におけるAI開発を専門とする株式会社ヒューマノーム研究所と共同で、ライフサイエンス分野に特化した研究室内完結型AI解析プラットフォーム「In-Lab LLM スターターキット」を提供開始します。

これまでセキュリティ上の懸念から、OpenAI社のChatGPTやGoogle社のGeminiなど、クラウド型で提供される高性能な大規模言語モデル(以下「LLM」)の活用は、研究開発現場では制限されてきました。本サービスは、研究開発の現場に、ChatGPT相当の対話性能を持つgpt-ossを完全オフライン環境で提供します。これにより、遺伝情報、診療情報、最新の実験仮説など、極めて機密性の高い情報を研究室外に出すことなく、例えば遺伝子変異位置による関連論文の調査や、実験データを直接入力することによる類似研究との比較などの解析を安全に実行することが可能となり、研究のスピードアップに寄与します。本キットは特別価格で限定5台までご提供いたします。

Background

開発の背景

近年、生成AIは科学研究の仮説生成、統計解析のプログラミング、そして結果の解釈まで、あらゆる場面で不可欠なツールとなりつつあります。しかし、クラウド型のLLMサービスには、入力した機密情報が意図せず学習に利用される可能性や、システムの脆弱性による外部漏洩リスクが指摘されてきました。特に、個人の遺伝情報を含むゲノムデータや診療情報、企業の知的財産そのものである創薬研究データなどを扱うライフサイエンス分野において、この問題はLLM導入の大きな障壁となっていました。

こうした中、OpenAI社によるオープンウェイトモデル「gpt-oss」の登場により、高性能な大規模言語モデルを、研究室や病院内の研究室内完結型サーバーで安全に運用することが現実的な選択肢となりました。

この技術的ブレークスルーを捉え、ヒューマノーム研究所のAI開発力と、ナベ インターナショナルの堅牢なインフラ構築技術を融合し、ライフサイエンス研究を加速するソリューションとして「In-Lab LLM スターターキット」を開発しました。

Benefits

AI対話で完結する解析環境

生成AIを用いた論文要約や、統計解析のコード生成は、すでに研究現場で急速に普及しつつあります。しかしこれまでは、機密性の高い生データを外部クラウドに入力することが難しく、活用場面が限られていました。

「In-Lab LLM スターターキット」を導入することで、研究者は閉域環境のブラウザから生データを直接入力し、まるでChatGPTに話しかけるように仮説生成や解析を進めることができます。

これにより、以下のようなシームレスで高速な研究開発サイクルを実現します。

仮説の立案

研究データを入力すると新たな仮説を提示。In-Lab LLMが次の質問を提示することで、対話を通じたアイデアの深化と検証ポイントの明確化を実現。

解析コードの
自動生成

立案した仮説検証に必要な解析パイプライン(スクリプト、コマンド等)を対話形式で生成。

即時実行と
結果の解釈

生成したコードをその場で実行。エラー解決や結果の解釈は In-Lab LLMに相談可能。結果要約や、次のアクション提案も行うため、試行錯誤のサイクルが大幅に短縮。

Features

In-Lab LLM スターターキットの特長

順次拡張を見据え、スターターキットに加えて、研究室独自のLLM・解析環境についてもオプションで対応いたします。

完全独立型のセキュア環境
ゲノムデータや臨床データなど、機密性の高い情報を外部に出すことなく安全に扱えます。
外部クラウドに依存せず、研究室内完結型の専用サーバー上で稼働します。

gpt-oss-20bが快適に動く構成
日常的な研究作業に適したシンプル構成の採用により、研究室単位でも導入しやすい価格帯と安定性を両立。
仮説の立案と深化、解析コードの自動生成、研究アイデアの整理などを、研究室内で安心して行えます。

ブラウザ経由で手軽に利用
ヒューマノーム研究所が整備したDockerコンテナ環境を標準搭載。研究室単位で導入でき、メンバー全員がブラウザ経由で利用できます。
利用者ごとにアカウントを追加購入する必要がなく、研究室の規模に応じて柔軟に活用できます。

柔軟なオプション提供

  • RAG構築サポート:研究室内の文書や解析データを取り込み、研究特有の知識を活かした応答を可能に。
    設計から日常的な運用支援まで、現場に即したサポートを提供します。
  • ファインチューニング支援:研究目的に最適化した独自LLMを構築。生成AIモデル開発の実績をもつヒューマノーム研究所が、
    独自モデルのファインチューニングまでサポートします。
  • ハードウェア仕様拡張:計算資源やストレージの増強など、研究の規模や進展に応じた環境を整備。
    解析ツール群の追加、より高性能な gpt-oss-120bの実装、バイオインフォマティクスツールとの連携環境の整備にも対応します。
操作画面イメージ図

Plans

提供プラン

研究フェーズや目的に応じて選択・拡張できる3つのプランをご用意しました。本プランは5台限定となります。

スターターキット

完全閉鎖環境で動作するChatGPT相当の「プライベートLLM」。論文要約やプログラミング支援など、日常の研究活動を飛躍的に効率化できます。

LLM拡張
サポートプラン

(RAG構築・ファインチューニング支援)

研究室内のドキュメントや解析データをプライベートLLMに取り込んだ拡張環境を構築。研究特有の知識を活かした応答を実現できるよう、コンサルテーションから運用まで一貫してサポートします。

ハードウェア仕様
拡張プラン

さらに高性能なLLMの利用や、解析サーバー機能を追加したい場合に対応。計算資源やストレージを増強し、追加の解析ツール群やgpt-oss-120bの実装など、研究の規模や進展に応じた環境を整備します。

Contacts

お問い合わせ

研究で利用されるバイオインフォマティクスツールとの連携や、より大規模な解析への対応についてもお問い合わせください。

株式会社ヒューマノーム研究所

株式会社ナベ インターナショナル

本製品のリリース情報は、PR TIMESにも掲載されています。

→ PR TIMES の掲載ページを開く