「自分が持っている資料(PDFやメモなど)だけを学習して、自分の好きな役割(先生や営業アシスタントなど)で働いてくれる『オリジナルAI』が、プログラミングなしで誰でも作れるようになった」
2025年末から2026年にかけて機能がアップデートされ、Googleの2つのAIツールを「ガッチャンコ」できるようになりました。それぞれの役割と、連携すると何がすごいのかを分かりやすく解説します。
1. 2つのツールの役割分担
① NotebookLM(専用の「知識」の箱)
自分が持っているPDF資料、WebサイトのURL、メモなどを読み込ませておくツールです。
普通のAIはネット上の情報を拾ってきて適当な嘘(ハルシネーション)をつくことがありますが、NotebookLMは「読み込ませた資料の中身からしか答えない」ため、嘘をつかないのが最大の強みです。
② Geminiの「Gems」機能(専用の「役割」の箱)
Geminiの中で、「あなたは新人研修の先生です」「回答は必ず箇条書きで、優しいトーンで書いてください」といったルールや性格(プロンプト)を固定して、特化型のAI(Gem)を作る機能です。
2. 「連携」すると何がすごいのか?
これまで、NotebookLMは「資料に忠実だけど、毎回『こういう形式で出力して』と指示するのが面倒」でした。
しかし、この2つが連携できるようになったことで、以下のような最強の組み合わせが可能になりました。
- NotebookLM = 「何を答えるか(中身・知識)」を固定する
- Gemini (Gems) = 「どう答えるか(形式・役割)」を固定する
この2つを繋ぐことで、「自分の会社の資料だけを根拠にして、毎回指定したフォーマットで完璧に答えてくれるAI」が誕生します。これが「自分専用AI」の正体です。
3. 具体的にどんな「自分専用AI」が作れる?
活用例①:社内ルール質問AI(総務・IT部門など)
- 知識(NotebookLM):会社の就業規則、経費精算のマニュアルPDFなど
- 役割(Gem):「社員からの質問に、親切丁寧なカスタマーサポートの口調で答えてください」
- 結果:「結婚した時の有給の申請方法は?」と聞くと、自社のマニュアルだけを根拠に24時間いつでも正確に答えてくれるヘルプデスクが完成します。
活用例②:最強の営業アシスタントAI
- 知識(NotebookLM):自社の過去の提案書や、すべての製品カタログ
- 役割(Gem):「入力された顧客の悩みに合わせて、自社製品を使った解決策を『メールの文面』で作成して」
- 結果:顧客の情報を入れるだけで、自社製品の知識をフル活用した営業メールのたたき台を一瞬で作ってくれます。
活用例③:資格勉強の専属家庭教師AI
- 知識(NotebookLM):自分が勉強している資格試験のテキストや過去問集
- 役割(Gem):「私が『問題を出して』と言ったら、資料の中からランダムで3択クイズを出し、間違えたら小学生でもわかるように解説して」
- 結果:絶対にテキストの範囲から逸脱しない、優秀なクイズ出しマシーンになります。
4. 作り方のイメージ(とても簡単です)
プログラミングの知識は一切不要です。
- NotebookLMを開き、手持ちの資料をアップロードして保存する。
- Geminiの画面を開き、左メニューから「Gem」を新規作成して「〇〇のように振る舞って」と指示を書く。
- Gemの設定画面にある「知識(ソース)」の項目で、1で作ったNotebookLMを選択して接続する。
たったこれだけで、あなたの仕事や勉強を劇的に楽にしてくれる「右腕」のようなAIが完成します。手元に読み込ませたい資料(仕事のマニュアルや趣味のデータなど)があれば、ぜひ試してみてください。
自分専用AIを作る上で、「機密保持(セキュリティ)」は最も注意すべき重要なポイントです。
結論から言うと、「Googleはアップロードされた資料を勝手にAIの学習に使わない」と明言していますが、使っているアカウントが『個人向け』か『法人向け(会社用)』かで、安全性のレベルが大きく異なります。
具体的にどういうことか、分かりやすく3つのポイントで解説します。
1. NotebookLM側の機密保持(基本は安全)
NotebookLMの最大の特徴であり、Googleが公式に強く約束しているのが「ユーザーがアップロードした資料(ソース)を、GoogleのAIモデルの学習には一切使用しない」ということです。
あなたがアップロードした社内マニュアルや個人のメモが、他の誰かの回答としてポロっと漏れてしまうようなことは基本的にありません。データはあなたのGoogleアカウント内に鍵をかけて保管されているイメージです。
2. Gemini側の機密保持(※ここが要注意!)
一方で、指示を出したりチャットをしたりする「Gemini」側には注意が必要です。どのアカウントを使っているかで扱いが変わります。
- 個人アカウントの場合(無料版やGoogle One AI Premium)
個人向けのGeminiでは、サービス向上のために「あなたが入力した質問(プロンプト)や会話履歴を、Googleの担当者(人間)が読んだり、今後のAIの改善に使ったりする可能性がある」という規約になっています(設定でオフにすることもできますが、ビジネスレベルの完全な機密保持とは言えません)。 - 法人アカウントの場合(Gemini for Google Workspace)
会社で契約している法人向けのGoogleアカウントであれば、エンタープライズ(企業向け)基準の強力なセキュリティが適用されます。入力したデータや会話履歴がAIの学習に使われることは「絶対にない」と約束されており、外部に漏れる心配はありません。
3. 実際に使う際の「3つの鉄則」
これらを踏まえて、自分専用AIを作って活用する際のルールは以下のようになります。
① 個人アカウントなら「極秘情報・個人情報」は絶対に入れない
個人のGoogleアカウントで作る場合、顧客の名前や連絡先、未発表の業績データ、システムのパスワードなどの「本当の機密情報」を読み込ませるのはNGです。一般公開されている資料、自分の勉強用ノート、当たり障りのない業務マニュアル程度にとどめましょう。
② 会社の業務で本格的に使うなら「法人アカウント」一択
社外秘の提案書や、顧客のデータを含んだAIを作りたい場合は、必ず会社のシステム管理者が管理している「法人向けのGoogleアカウント(Workspace)」を使って構築する必要があります。
③ 会社のルール(情シス部門)に必ず確認する
いくらGoogleが「学習に使わない」と言っていても、社員が個人の判断で会社の資料を外部のクラウドサービスにアップロードすること自体を禁止している企業は多いです(いわゆるシャドーITの禁止)。会社で使う場合は、必ずIT・システム部門に「NotebookLMとGeminiを使っていいか」を確認してください。
まとめ
「個人の勉強や、公開情報の整理に使う分には十分安全」ですが、「会社の機密データを扱うなら、法人契約のアカウントを使い、会社の許可を取るのが大前提」となります。
この境界線さえ守れば、情報の漏洩を心配することなく、圧倒的に便利な「自分専用AI」を安全に使いこなすことができます。
おっしゃる通りです。まさにそれが、現在AIを活用する翻訳者やビジネスパーソンが直面している「最大のジレンマ(セキュリティを取るか、性能を取るか)」です。
著作権のある原文や、未発表の機密文書(NDAを結んでいる翻訳案件など)を扱う場合、無料のWeb版AI(ChatGPT、Gemini、Claudeなど)にそのまま入力してしまうと、AIの学習データとして再利用されてしまうリスクや、サーバー上にデータが残るリスクがあります。
そのため、「絶対に外に漏らせないからローカルLLM(自分のパソコン上だけで動くAI)を使いたい。でも、微妙なニュアンスの相談をするには性能が物足りない……」と悩むのは非常に正しい感覚です。
このジレンマを解決し、「クラウドAIの圧倒的な性能」と「ローカルLLM並みの安全性」を両立させる現実的な方法がいくつかあります。以下の3つのアプローチを検討してみてください。
解決策1:クラウドAIの「オプトアウト(学習拒否)設定」を使う
一番手軽な方法です。現在、主要なクラウドAIの多くは、ユーザー側で「私の入力データを学習に使わないでください」と設定(オプトアウト)できるようになっています。
- ChatGPTの場合:設定画面の「データコントロール」から「チャット履歴とトレーニング」をオフにする。または、一時的なチャット(Temporary Chat)を使用する。
- Claudeの場合:無料版・有料版ともに、デフォルトでユーザーのプロンプトを学習に使わない仕様になっています(ユーザーが明示的に「Good/Bad」ボタンでフィードバックした時のみ学習に使われる可能性があります)。
この設定をしておけば、著作権のある文章を入力しても、それがAIの養分になって将来他の誰かに出力されてしまう(著作権侵害に加担してしまう)リスクはほぼ防げます。
解決策2:「API」や「法人向けプラン」を使う(プロ向け)
もしあなたがフリーランスの翻訳家や、企業で翻訳業務を行っているなら、この方法が最も安全で確実です。
- API経由で使う:
開発者向けの「API(プログラムからAIを呼び出す仕組み)」経由でChatGPTやClaudeを使用する場合、利用規約で「入力データは一切学習に使用しない」と明確に定められています。最近はプログラミングができなくても、「TypingMind」や「Chatbox」といった専用アプリにAPIキー(パスワードのようなもの)を入れるだけで、普通のチャット画面のように安全に最高性能のAIを使えます。 - DeepL Proなどの有料翻訳ツール:
AIチャットではありませんが、DeepLの有料版(Pro)は「入力したテキストは翻訳完了後、即座にサーバーから削除される(学習にも使わない)」という厳格な機密保持契約が結ばれます。
解決策3:ローカルLLMの「進化」に期待する(2026年現在の状況)
「ローカルLLMは性能が足りない」というのはその通りなのですが、近年(とくにここ1〜2年)のローカルLLMの進化は凄まじく、少し前のGPT-4に迫るような性能のモデル(Llama 3系やCommand R+など)が、一般のパソコンでも動かせるようになってきています。
もし、ある程度スペックの高いパソコン(例えばメモリが32GB以上あるMacなど)をお持ちであれば、「翻訳のベースラインを作る」「特定のニュアンスについて壁打ち相談をする」といった用途には、もはや実用レベルで使えるローカルLLM環境を無料で構築することも可能です。(「LM Studio」や「Ollama」などのソフトを使えばワンクリックで導入できます)。
結論としてどうすべきか?
現時点でのおすすめの使い分けは以下の通りです。
- 絶対に外部に出してはいけない極秘案件・未発表作品
👉 「API経由でのクラウドAI利用」または「スペックの高いPCでのローカルLLM」一択。 - すでに世に出ている著作権物の私的な翻訳(語学学習など)
👉 クラウドAI(ChatGPTやClaude)の**「学習オフ設定」をオンにした上で、高性能なWeb版をそのまま使う。 - 「性能が足りないローカルLLMで妥協する」か「リスクを承知でクラウドを使うか」の二択ではなく、「クラウドAIの学習機能に鍵をかけて(オプトアウトして)、高性能と安全性のいいとこ取りをする」**のが、現在の最も賢い付き合い方と言えます。
「API経由でクラウドAIを使う」と聞くと、プログラミングの知識が必要なように思えるかもしれませんが、実は「専用のアプリ」を使えば、普段のChatGPTやClaudeと同じようなチャット画面で、誰でも簡単に使うことができます。
しかも、API経由で入力したデータは「AIの学習に一切使われない」という厳格な規約があるため、機密性の高い翻訳や仕事のデータでも安心して高機能なAIに相談できるようになります。
具体的な始め方を、初心者向けに3つのステップで解説します。
Step 1:AIの「APIキー(パスワードのようなもの)」を取得する
まずは、使いたいAIの会社(OpenAIやAnthropicなど)の開発者向けサイトにアクセスし、「APIキー」と呼ばれる自分専用の暗号(長い文字列)を発行します。
- 翻訳に強い「Claude(クロード)」を使いたい場合
- Anthropicの「Console(開発者向けページ)」にアクセスし、アカウントを作ります。
- クレジットカードを登録し、少額(10ドル〜)をチャージします。
- 「Get API keys」というメニューから、新しくキーを発行してコピーします。
- 「ChatGPT(GPT-4oなど)」を使いたい場合
- OpenAIの「APIプラットフォーム」にアクセスし、アカウントを作ります。
- クレジットカードを登録し、少額をチャージします。
- 「API keys」のメニューから、新しいキーを発行してコピーします。
※この「APIキー」はあなたのクレジットカードと紐づいているため、絶対に他人に教えたり、ネット上に公開したりしないでください。
Step 2:APIキーを使える「専用アプリ」を用意する
APIキーをそのままでは使えないので、キーを入力して動かすための「チャットアプリ」をパソコンやスマホに入れます。ブラウザのChatGPT画面の代わりに使う、あなた専用の窓口です。
おすすめの定番アプリ(プログラミング不要)
- Chatbox(チャットボックス):無料
一番のおすすめです。パソコン(Windows/Mac)やスマホにアプリをダウンロードするだけで、すぐに使い始められます。日本語にも対応しており、画面もシンプルです。 - TypingMind(タイピングマインド):有料(買い切り)
ブラウザ上で動く非常に高機能なツールです。複数のAI(ChatGPTとClaudeなど)を横断して使えたり、プロンプトを保存できたりと、プロの翻訳者やヘビーユーザーに愛用されています。
Step 3:アプリに「APIキー」を貼り付ける
用意した専用アプリ(例:Chatbox)を開き、設定画面(Settings)を開きます。
そこに「API Key」を入力する欄があるので、Step 1でコピーしておいた長い文字列を貼り付けて保存します。
これで完了です!
あとは、いつものようにチャット画面に日本語や外国語を入力して相談するだけです。裏側では最高性能のAIが動いていますが、データは学習されず、安全にやり取りができます。
API経由で使う場合の「お金」に関する注意点
普段のChatGPT PlusやClaude Proは「月額約3,000円(20ドル)の定額制」ですが、API経由の場合は「使った文字数(トークン)に応じた従量課金制」になります。
- メリット:月に少ししか使わないなら、月額3,000円払うよりもずっと安く済みます(数百円で済むことも多いです)。また、「月額プランの制限(3時間で◯回まで等)」に引っかかりにくくなります。
- デメリット:本1冊分の膨大なテキストを一気に翻訳させるような激しい使い方をすると、月額料金よりも高くなってしまうことがあります。
まとめ
「開発者サイトでキーを発行する」→「Chatboxなどのアプリに入れる」
たったこれだけの手間で、月額課金に縛られず、しかも「学習されない最強のAI環境」が手に入ります。
とくに、翻訳の微妙なニュアンスを相談するなら、現在のAIの中ではAnthropic社の「Claude 3.5 Sonnet(または最新モデル)」が圧倒的に優秀です。機密保持を守りながらプロの仕事に活かすなら、ClaudeのAPIを取得してChatboxで使うのが、現在最もおすすめできる構成です。
結論から言うと、「著作権のある文章の翻訳」や「個人の作業」であれば、普通にWeb版のClaudeを使って、終わったら履歴を削除する(記録を残さない)という使い方が、一番手軽で現実的な正解になることが多いです。
わざわざ難しい設定(APIなど)をしなくても、ClaudeのWeb版をそのまま使うのが安全と言える理由と、知っておくべき「たった一つの注意点」を分かりやすく解説します。
理由:Claudeは「そもそも学習に使わない」のが基本ルール
実は、ChatGPTとClaudeでは、私たちが入力したデータの扱い方が根本的に違います。
- ChatGPT(OpenAI)の場合:
何もしないと、入力したデータはAIの学習に使われます(設定でオフにする必要があります)。 - Claude(Anthropic)の場合:
開発元のAnthropic社はプライバシーを非常に重視しており、「無料版であっても有料版(Pro)であっても、ユーザーのチャット内容をAIの学習(トレーニング)には一切使用しない」と明言しています。(※あなたが「Good/Bad」ボタンを押して意図的にフィードバックを送った場合を除きます)
つまり、あなたがWeb画面から普通のClaudeに著作権のある本や記事の原文を貼り付けて翻訳の相談をしても、それがAIの知識として吸収され、将来誰かに漏れてしまう(著作権侵害になってしまう)心配は最初からありません。
「記録を残さない(履歴を消す)」とどうなるか?
使い終わった後に、Claudeの画面左側から「チャットを削除(Delete)」すれば、あなたの画面上からは完全に消え、記録は残りません。
ただし、裏側のサーバー(Claudeの運営会社の金庫)の動きについては知っておく必要があります。
あなたが画面上で履歴を消しても、Anthropic社のサーバー上には「システムの安全監視(悪用の防止など)のため、最大30日間はデータが暗号化されて保管される」というルールになっています。30日を過ぎると完全に消去されます。
結論:あなたの状況によって判断が変わります
この「30日間は向こうのサーバーに残る(ただし学習はされない)」という事実をどう捉えるかで、普通に使っていいかどうかが決まります。
⭕️ 普通のClaudeを使ってOKなケース
- 洋書や海外のニュース記事など、すでに世に出ている「著作権のある文章」を個人的に翻訳したい。
- 自分の語学学習のために、長文の翻訳の壁打ち相手になってほしい。
- (学習に使われないので、著作者の権利を脅かすことはありません。終わったらチャットを消せば完璧です。)
❌ 普通のClaudeではマズいケース(APIが必要)
- 企業から「絶対に外部のクラウドサービスにデータを渡してはいけない」という厳しい機密保持契約(NDA)を結んで請け負っている未発表の翻訳案件。
- (この場合、「学習に使われない」としても、「30日間外部のサーバーにデータが一時保管される」こと自体が契約違反になる可能性が高いため、データが一切保存されないAPI通信などを使う必要があります。)
まとめ
もしあなたが厳しいNDA(機密保持契約)に縛られているプロの翻訳業務でなければ、「Web版のClaudeを普通に使い、用が済んだらチャットルームごと削除する」というスタイルが、性能面でも安全面でも、最もストレスのないベストな選択肢になります。
「メモリ16GBのMチップ(Apple Silicon)搭載 MacBook Air」ですね。
結論から言うと、そのマシンはローカルAIを動かすのに非常に適した、素晴らしい入門・実用機です。
M1、M2、M3などの番号(世代)がどれであっても、Appleの「Mチップ」はユニファイドメモリという特殊な構造をしており、CPUとGPU(画像処理やAI計算をする部分)がメモリを共有しています。そのため、一般的なWindowsのパソコンよりもはるかに効率よくAIを動かすことができます。
16GBのメモリがあれば、「かなり賢く、実用レベルのAI」をサクサク動かすことが可能です。具体的にどんなタイプのものが使えるか、分かりやすく解説します。
1. 使えるAIの「サイズ(賢さ)」の目安
ローカルAIの規模は「パラメータ数(B=Billion=10億)」という単位で表されます。数字が大きいほど賢いですが、必要なメモリも増えます。16GBのMacで動かせるのは以下のクラスです。
- ◎ 最適・サクサク動くクラス(7B 〜 9B)
- 必要なメモリ: 約 5GB 〜 7GB
- 特徴: Macの動作に余裕を残しつつ、非常に高速(人間が読むより速いスピード)で文章を生成します。日常的な翻訳、文章の要約、アイデア出しにはこのサイズがベストです。
- 〇 動くが少し重い限界クラス(12B 〜 14B)
- 必要なメモリ: 約 8GB 〜 11GB
- 特徴: 16GBメモリのうちの多くをAIが占有するため、ブラウザ(Chromeなど)でタブをたくさん開いていると少し動作が遅くなることがあります。しかし、より複雑な論理的思考や、精度の高い翻訳が可能です。
- ✖ 動かない・フリーズするクラス(30B以上)
- 必要なメモリ: 20GB以上
- 16GBのMacではメモリが足りず、ストレージ(SSD)を無理やりメモリ代わりに使うため、文字が出るのが遅すぎて実用的ではありません。
2. 具体的に使える「おすすめAIモデル」
現在(2025〜2026年)、世界中の企業が競って「小さくて賢いAI」を無料で公開しています。16GBのMacなら、以下の世界トップクラスのモデルがそのまま使えます。
- Llama 3.1 8B または Llama 3.2 (Meta社)
Facebookの親会社が作った、このサイズでは世界標準のAI。英語に強いですが、日本語もかなりこなせます。 - Gemma 2 9B (Google社)
Googleが開発した軽量モデル。サイズが小さいのに非常に賢く、日本語の自然さでも高く評価されています。 - Qwen 2.5 7B または 14B (Alibaba社)
現在、ローカルで日本語を扱うなら最もおすすめと言われているAIです。日本語の語彙力が非常に高く、翻訳作業などにもかなり使えます。
3. テキスト以外のAI(画像生成や文字起こし)
文章を扱うLLMだけでなく、以下のようなAIも16GBのMacで十分に動かせます。
- 画像生成AI(Stable Diffusion など)
「Draw Things」という無料アプリをMacに入れるだけで、ネットに繋がずに高画質な画像を何枚でも生成できます。 - 高精度の文字起こしAI(Whisper)
「MacWhisper」などのアプリを使えば、会議の録音データや動画ファイルから、オフラインで完璧に近い文字起こしが一瞬で可能です(機密な会議録音に最適です)。
4. どうやって動かすの?(必要なソフト)
プログラミングは一切不要です。以下のどちらかの無料ソフトをMacにインストールするだけで、すぐに始められます。
- LM Studio(エルエム・スタジオ)★一番おすすめ
「AI版のiTunes」のようなソフトです。画面上で「Qwen」などと検索し、ダウンロードボタンを押すだけで、そのままChatGPTのようなチャット画面で会話(や翻訳の指示)ができます。 - Ollama(オラマ)
もう少し本格的に使いたい人向け。裏側でAIを動かしておき、「Chatbox」などの好きなチャットアプリと連携させて使うことができます。
まとめ:機密翻訳への活用について
先ほどご相談いただいた「著作権のある文章や機密情報の翻訳」において、この16GBのMacBook Airは最強のプライバシー要塞になります。
「LM Studio」に「Qwen 2.5」などを入れて翻訳させれば、データはMacから一歩も外に出ません。クラウドのClaude(最高性能)と比べると、どうしても「絶妙な文学的ニュアンス」などでは一歩譲る部分はありますが、実務レベルの下訳や要約としては十分に驚くべき性能を発揮してくれます。まずは一度、無料のLM Studioを入れて試してみることを強くお勧めします!
とのことなんですが、実際に「LM Studio」に「Qwen 2.5」を入れて翻訳の実験をしてみたら、あまりよくない。時間の無駄。クラウドのClaudeがあるのだから、そんなものを使う必要はない。愚かな無駄話を機密扱いにして何になるのか。
