- Published on
Gemini 2.5の3月進化:自分のファイルでDeep ResearchしてLyria 3で音楽まで
リサーチ中に「自分の資料をAIに渡して、その資料をもとにもっと深く調べてほしい」と思ったことはありませんか?
既存のAIリサーチツールはウェブからの情報収集に特化していました。自分がすでに持っている内部資料——集めた論文、会議録、インタビュー記録——を基盤にAIが追加調査をしてくれるのは難しいことでした。2026年3月、Geminiがその境界を壊しました。
さらに同月、Geminiはテキストと画像から音楽を生成するLyria 3音楽生成モデルも発表しました。リサーチツールとしてもクリエイティブパートナーとしても、Geminiの役割が大きく拡張した1ヶ月を振り返ります。
目次
- Deep Researchの進化:自分のファイルがソースになる
- Lyria 3:テキストと画像から音楽を生成するAI
- Gemini 2.5 Flashの改善:無料ユーザーも強くなった
- パーソナルインテリジェンスとAPIアップデート
- 実践活用シナリオ:研究者とクリエイターのためのガイド
1. Deep Researchの進化:自分のファイルがソースになる
外部検索だけだったAIリサーチツールに、自分の資料を直接供給できるようになりました。
2026年3月、GeminiのDeep Researchにファイルおよび画像アップロード機能が追加されました。ユーザーが持つ文書(PDF、Wordファイル、画像など)をDEep Researchのソースとして直接含めることができます。AIが内部資料と外部検索を組み合わせて、より文脈のあるリサーチレポートを生成します。
この変化が実質的に重要な理由は信頼性です。従来のAIリサーチは外部検索結果に依存していたため、自分の研究コンテキストとずれていたり、すでに知っている情報を繰り返したりすることが多くありました。自分の資料を基盤にすることで、AIが研究の空白をより正確に埋められるようになります。

Deep Researchが無料で開放
さらに嬉しいニュースは、Gemini 2.5 FlashベースのDeep Researchが無料ユーザーにも開放されたことです。従来は有料サブスクライバー専用の機能でしたが、誰でも試せるようになりました。品質に差はありますが、リサーチ体験そのものを無料で試せるようになりました。
2. Lyria 3:テキストと画像から音楽を生成するAI
説明するだけで音楽が生成されます。楽器ができなくても大丈夫。
同月リリースされたLyria 3はGoogleの音楽生成AIモデルです。2つのバージョンがあります:
| モデル | 特徴 |
|---|---|
| lyria-3-clip-preview | 30秒クリップ生成に最適化 |
| lyria-3-pro-preview | フルレングス楽曲を生成 |
両モデルとも48kHz ステレオオーディオを出力し、テキストと画像を同時に入力として受け付けます。参考用画像をアップロードして、その雰囲気に合った音楽を生成することも可能です。
どう活用できるか
- 教育コンテンツクリエイター:動画に合ったBGMを自分で生成
- YouTuber・クリエイター:著作権フリーのオリジナル音楽で動画を完成
- プレゼン資料作成:発表の雰囲気に合ったBGMを生成
- EdTech:授業開始時の雰囲気設定用アンビエントサウンドを生成
「音楽を作る能力が民主化されています。楽譜が読めなくても、楽器が弾けなくても——望む雰囲気を言葉で表現できれば、それで十分です。」
このモデルは現在Gemini APIを通じて開発者に提供されており、今後一般ユーザーインターフェースにも広がる見込みです。
3. Gemini 2.5 Flashの改善:無料ユーザーも強くなった
改善された書式と画像理解能力が無料ユーザーにも提供されます。
改善されたGemini 2.5 Flashのバージョンが全Geminiアプリユーザーに展開されました。主な変化は2つです:
書式の改善:複雑な出力物にヘッダー、リスト、表などの書式要素をより積極的に活用します。テキストの塊ではなく、構造化された情報を提供するため可読性が大幅に向上しました。
画像理解の向上:ユーザーが画像をアップロードした際に内容をより正確に解釈して応答します。図表、グラフ、写真内のテキスト認識が改善されました。
4. パーソナルインテリジェンスとAPIアップデート
Geminiが自分のデジタルライフ全体を理解し始めています。
パーソナルインテリジェンスの無料開放(米国)
Personal Intelligence機能が米国内の全Geminiユーザーに無料開放されました。Gmail、Google Photos、YouTubeを接続して、パーソナライズされたAIアシスタントとして活用できます。旅行計画、プロジェクト調整、個人記録の整理などで文脈のある助けが得られます。
国際展開のタイミングはまだ不透明ですが、Googleのグローバル拡張パターンから見て、近いうちに国際地域にも広がる見込みです。
APIの主要アップデート
開発者向けGemini APIも合わせてアップデートされました:
- Cloud Storageサポート:Google Cloud Storageバケットをデータ入力ソースとして直接使用可能
- ファイルサイズ上限を引き上げ:20MB → 100MB(5倍拡大)
- 組み込みツール+関数呼び出しの組み合わせ:Geminiの内蔵ツールとカスタム関数呼び出しを一つのAPIリクエストで同時使用可能
ファイルサイズ制限が100MBに拡大されたことは、高解像度画像、長い動画クリップ、大容量PDFをAPIで処理する作業で実質的な差をもたらします。
5. 実践活用シナリオ:研究者とクリエイターのためのガイド
今回のアップデートを最大限活用できる2つの使用パターンです。
研究者のためのDeep Researchワークフロー:
- 自分が収集した一次資料(論文、報告書、インタビュー記録)をファイルとして準備
- Gemini Deep Researchにファイルをアップロードしてリサーチ目標を設定
- AIが内部資料と外部検索を組み合わせて総合報告書を生成
- 空白の論拠や反論になり得る資料をAIが自動的に探索
クリエイターのためのコンテンツ制作ワークフロー:
- 動画のコンセプトをテキストで説明(例:「温かい春の教室、穏やかなピアノのメロディ」)
- 雰囲気の参考用画像を追加アップロード(任意)
- Lyria 3で30秒のBGMクリップを生成
- 動画に挿入——著作権の問題なく活用
おわりに
Geminiの3月アップデートは2つのキーワードで要約されます:自分の資料の統合と創作領域の拡張。Deep Researchが外部と内部をつなぎ、Lyria 3がテキストから音楽への境界を壊しました。
AIツールが各自の専門領域を超えて互いの領域に侵入し、接続するスピードが速まっています。この流れの中で重要なのは、ツールを知ることではなく、自分が欲しいものを明確に表現する能力です。
関連記事
Lyria 3とDeep Researchのうち、先に試してみたい機能はどちらですか?コメントで教えてください!
出典: