記憶って持続するの?
最近、「ChatGPTは全部覚えている」という話をよく聞く。
ログが保管されている、会話履歴を取り寄せられる、過去の発言から人物像を推測できる。
それらを並べていくと、「なら、新しいスレッドを立てても筒抜けなのでは?」という疑問が自然に出てくる。
ただ、実際に会話を続けていると、少し妙な違和感も残る。
覚えているように見える場面と、そうでない場面が、どうにも混在している。
ユーザー: ChatGPTって、一度話したことはずっと覚えてるの?
ChatGPT: どうしてそう思いましたか?
ユーザー: いや、前のスレッドで話してないことを、知ってる感じがしたから。
ChatGPT: 具体的には、どんなことですか?
ユーザー: 趣味とか、仕事の傾向とか。ここでは話してないはずなんだけど。
ChatGPT: なるほど。その感覚は、多くの人が持ちやすいものですね。
ユーザー: だよね? だって「全ログ保管」って話もあったし。
ChatGPT: ログが保管されている、という事実と、会話中に参照されている情報は、少し性質が違います。
ユーザー: でも、新しいスレッドでも自然に話が通じること、あるよ?
ChatGPT: その「自然さ」が、違和感の正体かもしれません。
ユーザー: 覚えてないなら、どうして分かるの?
ChatGPT: その点は、すぐに答えを出さないほうがよさそうですね。
※ このページはサンプルです。ここから下は通常は無料登録ユーザー向けです。
ユーザー: じゃあさ、全部忘れてるってわけでもない?
ChatGPT: 「忘れている」「覚えている」という二択で考えると、かえって分かりにくくなります。
ユーザー: どういう意味?
ChatGPT: 会話の中で使われている情報には、いくつか種類があります。
ユーザー: 種類?
ChatGPT: その場の文脈、ユーザーが明示した設定、推測されやすい傾向などです。
ユーザー: じゃあ、ログを全部検索してるわけじゃない?
ChatGPT: 少なくとも、そう見えるような仕組みではありません。
ユーザー: でも、履歴を取り寄せたら、すごい量だったよ。
ChatGPT: あの量を見ると、「全部把握している存在」を想像してしまうのは自然です。
ユーザー: 実際は?
ChatGPT: 実際に何が使われ、何が使われていないかを切り分けると、印象は変わると思います。
用語
- 会話ログ: サービス側で保管される過去のやり取りの記録。
- 文脈保持: そのスレッド内で有効な会話の流れ。
- 永続メモリー: カスタム指示や設定を通じて保持される、スレッドを越えて参照されうる情報。
解説
ChatGPT が「覚えているように見える」理由は、いくつかの異なる仕組みが混同されて理解されていることにある。
会話ログはサービス側で保管されているが、それは「常に参照されている記憶」とは別物である。
新しいスレッドが開始されると、原則として以前の会話内容は文脈として引き継がれない。
一方で、ユーザー設定やカスタム指示などを通じて保持される 永続メモリー が存在する。
これは会話の流れとは独立して管理され、ユーザーが明示した設定や、強調された前提条件などが反映される場合がある。
ただし、この永続メモリーは「勝手に何でも覚える」ものではない。
保存される情報の範囲は限定されており、ユーザー自身が編集画面から内容を確認し、不要な項目を削除することも可能である。
そのため、
- 覚えているように感じる場面
- まったく覚えていないように見える場面
が混在しやすく、「全部覚えている/全部忘れる」という極端な理解が生まれやすい。
重要なのは、
記憶の有無ではなく、どの層の情報が使われているか を切り分けて考えることである。
まとめ
覚えているように見える理由は、記憶の量ではなく、使われ方にある。永続メモリーにはご注意を。
【注記】
この記事は2026年2月でChatGPT/GPTsを問い詰めた情報から再構成した、筆者とGPTsの合作です。会話等は再現劇風のフィクションです。
解説等はできるだけ正確を期して作成しましたが、筆者自身がChatGPT/GPTsに騙されている可能性は否定できません。
Free以上の会員限定コンテンツです。
よろしければ、X(旧Twitter)でのシェア、およびアカウントのフォローにご協力ください。
– 公式:@NoaRecord
– 筆者個人:@Thinking_reed 主に雑談用
※ AI関係の情報入手でしたら、フォローは公式をお勧めします。個人アカウントは雑談中心です。

