AIの限界じゃなくて、人間の限界だった|「人にすぐ聞く癖」がAI時代に置いていかれる理由

50代からのAIプログラミング

AIの限界、という言葉をよく聞く。私もずっと、そう思っていた。「AIにはここまでしかできない」「人間の仕事はまだ残る」。そういう議論が、SNSにも本にも溢れている。でも、1年バイブコーディングをやって、3年AIと対話を続けて、見えてきた景色は少し違っていた。私が見たのは、AIの限界じゃなかった。人間の限界だった。そして、その限界を作っているのは、AIに聞くことではなく、人にすぐ聞く癖のほうだった。

あるバイブコーディング講座、3ヶ月で離脱した

去年、あるバイブコーディング講座に入った。AIを使ってアプリを作る、いわゆる「ノーコード時代の入口」みたいな講座だった。56歳でExcelしか使えなかった私が、AIを味方にして何かを作れるかもしれない。そう思って、講座代金70万円を払った。

最初の数週間は、楽しかった。AIの基本操作、プロンプトの書き方、簡単なツールの作り方。一つひとつが新しくて、課題を出すたびに小さな達成感があった。

でも、3ヶ月で離脱した。

講座の中身が悪かったわけじゃない。先生も丁寧だった。教材も整理されていた。問題は、別のところにあった。

勉強会のオプチャ。みんなで質問しあう場所。そこで飛び交う質問が、私の中で何かを冷めさせていった。

「ダウンロードのやり方を教えてください」

正直に書く。少し厳しく聞こえるかもしれない。

オプチャに流れてくる質問の多くが、AIやプログラミング以前の話だった。ダウンロードのやり方が分からない。ファイルを開けない。コピペができない。検索しても、最初に出てきた解説ページの読み方が分からない。

そういう質問が、毎日のように並んでいた。

気持ちは、わかる。誰でも最初はそうだ。私だって、Excelしか使えなかった時期がある。フォルダ構成すら怪しかった時期がある。だから「初心者だから」を笑うつもりはない。

でも、と思ってしまった。

ダウンロードのやり方を、人に聞く前に、自分で検索すれば1分で答えに辿り着く。その1分を惜しんで、人に聞く。この姿勢が、たぶんいちばん怖い。

気力が、少しずつ削られていった。3ヶ月で、勉強会に参加しなくなった。今もオプチャは見えるけれど、流れてくる質問のレベルが変わっていない。私はもう、何も書き込まない。

これは、私の冷たさかもしれない。優しい人なら、根気強く答えてあげるんだろう。私は、できなかった。

「AIに聞く」と「人に聞く」は、別の話だ

少し冷静になって、整理してみる。

誤解されたくない。AIに聞くことは、いい。むしろ、もっと聞くべきだ。私自身、毎日のようにAIに何かを聞いている。検索より早い時もある。専門書を読むより早い時もある。AIを「聞ける道具」として使うこと自体に、私は何の違和感もない。

問題は別のところにある。

「人にすぐ聞く癖」だ。

人に聞くと、答えが返ってくる。それは、相手が人だからだ。人は曖昧な質問でも、こちらの意図をくみ取ってくれる。「これってどうやるんですか?」だけで、相手は「あ、たぶんこういうことだろうな」と推測して、ちゃんと答えを返す。

楽だ。本当に楽だ。

でも、検索やAIは違う。検索エンジンも、AIも、解像度を要求する。曖昧な質問には、曖昧な答えしか返ってこない。「これってどうやるんですか?」とAIに投げても、AIは「これとは何ですか」と聞き返してくる。あるいは、見当違いの答えを返してくる。

正確で速い答えを引き出すには、自分の側に解像度がいる。「何が分からないのか」「何を知りたいのか」を、自分の言葉で組み立てる必要がある。

ここで分かれ道が出てくる。

人にすぐ聞く癖がある人は、この「解像度を上げる訓練」を積めない。なぜなら、楽な道がいつでも開いているから。検索すれば1分で分かることでも、人に聞けば10秒で答えが返ってくる。その10秒の楽さに慣れた人は、検索という「経験を積む機会」を逃し続ける。

▶ あわせて読みたい:言語化がAI時代の最強スキルである理由

経験を積まないと、AIにも雑な質問しか出せない

このループが、長期的にはかなり大きな差を生む。

検索する経験を積んだ人は、検索結果を読み解く力もついている。複数のサイトを比較する目も育っている。「この解説は正しい」「この記事は怪しい」を見分けられる。何より、自分の中の「分からなさ」を、検索可能な言葉に変換する筋肉が鍛えられている。

その筋肉は、AIへの問いかけにそのまま転用できる。「何が分からないのか」「何を知りたいのか」「どう答えてほしいのか」。これらを言語化できる人は、AIから的確で深い答えを引き出せる。

一方、人にすぐ聞く癖がある人は、この筋肉が育っていない。だからAIに対しても、「これってどうやるんですか?」レベルの質問しか出せない。AIは曖昧な答えしか返さない。すると本人は「AIは使えない」と感じる。

AIの問題じゃない。問いの解像度の問題だ。

結果として、この層の人がAIで作るアプリは、お手本通りのものに偏る。なぜなら、お手本には完成された問いと指示が用意されているから。それを真似れば、それなりに動く。でも、お手本から離れた瞬間に止まる。自分の中に、ゼロから問いを組み立てる訓練がないからだ。

独自のアプリを作るには、独自の問いがいる。AIに「これと同じものを作って」と頼んでも、それは誰かの真似でしかない。「こういう人のための、こういう機能を、こういう操作感で作りたい」を、自分の言葉で組み立てられるかどうか。ここに、差が出る。

痒い所に手が届くアプリ。細かな気遣いが感じられる機能。斬新な発想。これらは全部、解像度の高い問いから生まれる。雑な問いからは、雑なものしか生まれない。

私の場合、AIに「聞く」のではなく「問いを投げる」

ここから先は、私自身のAI活用法を書く。

私はAIに「聞く」ことはあまりしない。代わりに、AIに「問いを投げる」ことが多い。

違いを説明する。

「聞く」は、答えを求めている。「○○のやり方を教えて」「○○について解説して」。明確な答えが返ってくることを期待している。

「問いを投げる」は、答えを求めていない。代わりに、自分の中で言語化できていない違和感や疑問を、形にならないまま、ぼんやりとAIに渡す。

たとえば、こんな感じだ。

「なんとなく違和感がある。お客様から意見を聞いたけど、素直に受け止めていいのかわからない。遠回しにクレームを言われている気がする。うまく言語化できないけど、こんな感じの事を言われた。一緒に考えてくれ」

これは、質問ですらない。違和感の塊だ。答えを期待しているわけじゃない。AIに整理を手伝ってもらいたいだけだ。

AIは、こういう投げかけに対しても、ちゃんと反応する。「では、こう整理してみてはどうですか」「ここに矛盾がありそうです」「別の見方もあります」と、対話の中で違和感を分解してくれる。

すると、不思議なことが起きる。

自分の頭の中で混ざっていた感覚が、外に出された瞬間に、整理される。

頭から取り出すと、整理が始まる

これは、手書きで思考を書き出す行為に似ている。

頭の中だけで考えていると、堂々巡りになる。同じ場所をぐるぐる回って、進まない。でも、紙に書き出した瞬間、不思議と思考が整理される。書きながら「あ、こういうことか」と気づく。書いた後で読み返すと、別の発見がある。

AIへの問いかけは、この「書き出す」の進化版だ。

紙は、書いたものをそのまま映すだけ。でもAIは、書いたものに反応する。問い返してくる。別の角度を提示する。矛盾を指摘する。紙よりも、対話性が高い分、思考の整理が深くなる。

そして、ここで初めて、ひらめきが始まる。

違和感の塊だったものが、対話の中で形になっていく。形になった瞬間、別のアイデアと繋がる。繋がった瞬間、「あっ」と何かが見える。

これが、私のAI活用法の核心だ。AIに答えを出してもらうのではなく、AIと一緒に問いを育てていく。育てた問いから、ひらめきが生まれる。

たぶん、AIの活きた活用法の第一歩は、ここだと思っている。

▶ あわせて読みたい:AIに毎日ダメ出ししてたら、勝手にアートディレクターになった話

「使う」と「活かす」は、別の話だった

多くの人は、「AIに何をさせるか」を考えている。これは正しい。第一段階としては、間違いなく正しい。AIをただの遊び道具にしないために、まず「何をさせるか」を決める必要がある。

でも、その先がある。

「AIをどう活かすか」だ。

「使う」と「活かす」は、似ているようで、たぶん別の話だ。

「使う」は、AIを道具として消費する。質問を投げて、答えを受け取る。タスクを依頼して、結果を受け取る。それで終わり。

「活かす」は、AIと自分の組み合わせで、自分一人ではできなかったことに到達する。AIに完璧を求めない。AIの癖を理解して、自分の弱さを補ってもらう。違和感を言語化する前にAIに渡して、思考の整理を一緒にやってもらう。AIに考えさせるのではなく、AIと一緒に考える。

ここまで来て、初めてAIは「単なる便利ツール」ではなくなる。仕事の仕方そのものを変える。考え方そのものを変える。

この「活かす」視点を持てるかどうかが、たぶんAI時代に残れる人と、残れない人の境界線だ。

そして「活かす」には、解像度を上げる訓練が前提になる。自分の違和感を、ぼんやりとでも言葉にできること。「分からなさ」を、自分なりに整理できること。この訓練を、人にすぐ聞く癖がある人は、積めていない。

▶ あわせて読みたい:3大AIにプロフィールを書かせたら全員違った話

フィジカルAIの、足音が近い

もう一つ、最近強く感じていることがある。

フィジカルAI、つまり身体を持ったAI、人型ロボット。ここ1年で、進化のスピードが明らかに変わった。動画で見る人型ロボットの動きが、昨年と比べて格段に滑らかになっている。荷物を運ぶ、料理を作る、簡単な接客をする。そういう動作の精度が、人間の労働を代替できるレベルに近づいている。

2〜3年で、状況は大きく変わると思う。早ければ、もっと早いかもしれない。

体を使う労働、考える必要がない作業は、フィジカルAIに置き換わっていく。なぜ人型ロボットが強いかというと、人間の作業環境をそのまま使えるからだ。階段を上れる。ドアを開けられる。人間用の工具を握れる。新しいインフラを作らなくても、いまある現場にそのまま投入できる。

「考えなくてもできる作業」は、たぶん近い将来、人間がやる必要がなくなる。

そうなった時、何が残るか。「考えられる人」だけだ。問いを立てられる人。違和感を言語化できる人。AIと対話して、自分の頭で思考を整理できる人。

人にすぐ聞く癖があって、自分で経験を積む機会を逃し続けた人は、たぶん、この時代についていけない。

56歳の私が、まだ走っている理由

こんなことを書きながら、自分にも矢を向けている。

私だって、楽な道に流れそうになることがある。検索で済むことを、誰かに聞こうとしてしまう瞬間がある。気をつけていないと、私自身も「人にすぐ聞く人」になる。

だから、毎日言語化を続けている。ブログを書く。NOTEを書く。Xでつぶやく。違和感が湧いたら、まず自分の中で寝かせる。寝かせても言葉にならなければ、AIに問いを投げる。「うまく言えないんだけど」と前置きしながら。

これらは全部、解像度を上げる訓練だ。「分からなさを、分からないままに扱う」筋肉のトレーニングだ。

56歳。残された時間は、若い人より圧倒的に少ない。だからこそ、楽な道に逃げたくない。人にすぐ聞いて、お手本通りのものしか作れなくなって、いつのまにかAIに使われる側に回るのは、嫌だ。

AIに使われるのではなく、AIを活かす。AIに考えさせるのではなく、一緒に考える。そういう側に立ち続けるためには、自分の頭を毎日使い続けるしかない。違和感を、毎日言葉にし続けるしかない。

スプリント残り3日。当初のKPIには届かない。でも、見えた景色は確かにある。AIの限界じゃなくて、人間の限界だった。そして、その限界を超えられるかどうかは、毎日「問いを立てる」筋肉を使い続けるかにかかっている。

5月17日のDay90記事で、また会いましょう。

📝 佐藤 兆のNOTE

🔧 Excelしか使えなかった56歳が、AIに壊されながらアプリを完成させた話(980円)
 5つの壁と突破法。10のチェックリスト付き。

🌙 夢診断ノート|夢から心を読み解く記録(全10話予定・5話まで無料公開中)
 AIに夢を診断させたら、自分の本音が見えた。

NOTEで他の記事も読む

Xでも発信中 → @JibunkaikakuLab

あわせて読みたい


AIに毎日ダメ出ししてたら、勝手にアートディレクターになった話
gpt-image-1に絵を描かせて毎日ダメ出ししていたら、ある日AIが自分で批評を始めた。良い点、悪い点、改善案。他のチャットでは再現できない。何が起きたのか。AIは使う人次第で魂が宿る。56歳が確信した話。

3大AIにプロフィールを書かせたら全員違った|GPT・Gemini・Claudeの性格が丸見えになった話
NOTEのプロフィールを3大AIに書かせた。GPTは人柄重視、Geminiは数字とSEO重視、Claudeは信頼重視。全員バラバラで、全員が何かを見落としていた。3者の意見を束ねて最終判断したのは人間。56歳のAI活用実録。

コメント

タイトルとURLをコピーしました