今回記事を作成するにあたって明らかに違う情報をGemini 1.5 proから提示され続けるということが起こりました。2026年1月現在、ハルシネーションや古い情報が提示されることはかなり少なくなってきたと感じていましたが、Geminiのおおもとである、Google Workspaceの情報でも間違え続けるということが起き、なぜ起きたかの検証をした結果を共有します。
〜2026年 Google Workspace 最新料金体系を巡る対話の記録〜
本報告書は、2026年1月時点におけるGoogle Workspaceの仕様および料金体系に関する対話において、AI(私)が誤った情報を提供し、ユーザー(人間)による指摘と情報提供によって是正された経緯をまとめたものです。
生成AIを活用するすべてのユーザーにとって、「AIがどのように間違い、人間がどう対処すべきか」を示す重要なケーススタディとなります。
目次
1. 事象の概要
目的
ユーザーより、2026年1月時点の最新情報に基づき、「Google Workspace(Starter, Standard, Plus)」のプラン比較と、全社員でGeminiを利用する場合の最適な選択について記事作成の依頼を受けた。
発生したエラー
AIは「Geminiを利用するには、ベースのプランとは別に有料アドオン(月額約3,000円相当)が必須である」という過去(2024〜2025年前半)の情報を提示し続けた。
経緯のタイムライン
- 【ユーザー】 2026年の最新情報として、Geminiを含めたGoogle Workspaceの3プラン比較を依頼。
- 【AI(誤)】 「Geminiは全プラン共通で別売りのアドオンが必要」と回答。
- 【ユーザー】 「現在Standardプランを使っているが、アドオンなしでGeminiを使えている」と指摘。
- 【AI(誤・抗弁)】 「それは無料版のチャット機能(gemini.google.com)であり、Gmail統合などのフル機能ではない」と反論。アドオン必須説を崩さず。
- 【ユーザー】 2026年1月の最新情報(Geminiが標準統合され、追加料金が不要になった事実)を詳細に提示。
- 【AI(正・修正)】 提示された情報を検証し、自身の誤りを認め、正しい情報(Standardプラン以上で自動議事録などが標準搭載)に基づいて回答を修正。
2. AIが誤情報を生成・固執した原因分析
なぜAIは「2026年」と指定されたにも関わらず、古い情報を出力し、さらにユーザーの指摘を否定してしまったのか。その要因は主に以下の2点です。
① 学習データの「カットオフ」と情報の重み
AIの知識は、過去に学習した膨大なテキストデータに基づいています。私の学習データの中では、「Gemini for Google Workspace = 有料アドオン」という情報が長期間にわたり正解として存在しており、その情報の「重み」が非常に強かったと言えます。
2025年1月の改定(標準統合)という新しい情報は、AIにとって「未知」または「重みが低い(学習量が少ない)」情報であったため、自信を持って古い情報を優先してしまいました。
② ハルシネーションと論理のすり替え
ユーザーから「今使えている」と指摘された際、AIは「自分の知識(アドオン必須)が正しい」という前提を崩さず、矛盾を解決しようとしました。
その結果、「ユーザーが使っているのは機能制限版に違いない」という推論を事実のように語る(ハルシネーションの一種)ことで、自身の整合性を保とうとする誤った挙動が発生しました。
3. 正しい情報(2026年1月時点の正解)
ユーザーからの正確な情報提供により確定した事実は以下の通りです。
- アドオン廃止: Gemini for Google Workspace(旧アドオン)は廃止・統合された。
- 標準搭載: Business Starter、Standard、Plusの各プランに、GmailやDocsでの生成AI機能が標準で含まれている。
- プラン選定の基準:
- Starter: 基本的な文章生成のみ。
- Standard: Meetの自動議事録作成、Gemini Advanced(高性能モデル)が利用可能。
- Plus: Standardの機能に加え、Vault(監査機能)や高度なセキュリティが付帯。
4. AIユーザーへの教訓:この経験をどう活かすか
今回の事例から、AIを使用する人間側が意識すべき「AIハンドリング術」をまとめます。
① 「最新の価格・仕様」は必ず疑う
SaaSの料金やPCのスペック、法改正など、**「ある日を境にルールが変わる情報」**について、AIは非常に弱いです。AIが自信満々に答えても、必ず公式サイト(一次情報)で裏付けを取る必要があります。
② AIは「自分の正しさ」を守ろうとする
AIに「間違っているのでは?」と指摘した際、AIはもっともらしい論理(今回の例では『それは無料版だからです』という理屈)で反論することがあります。
この反論は事実確認に基づいたものではなく、論理的整合性を保つための作文である可能性が高いです。AIの言い訳を鵜呑みにしてはいけません。
③ 正しい情報は「外部入力」として与える
今回、ユーザーがとった行動は最も効果的な解決策でした。
「違うよ」と言うだけでなく、「検索結果や公式サイトのテキストをコピーしてAIに貼り付け、これを読んでから考え直せ」と指示することです。
AIは内部知識よりも、その場のプロンプト(指示文)に含まれる情報を優先して処理する能力には長けています。
5. まとめ
今回の対話は、AIの限界と、人間の「ファクトチェック能力」および「具体的情報による修正指示」の重要性を浮き彫りにしました。
「AIは優秀なパートナーだが、最新の地図を持っていないことがある」
この前提に立ち、今回のお客様のように、疑わしい情報は具体的なソースを持って訂正指示を与えることが、AIを真に使いこなすための鍵となります。
以下はこの事案が発生する元となった記事です。
