經常看到很多人說AI會出現幻覺,或是它會給錯誤且不實際的答案。

我最近使用它後,發現一件更值得警惕的事。

👉 它不是亂講,而是會越講越合理,最後把你帶去一個完全不同的問題點上。

一開始,我是沒有察覺,因為我出了一本電子書,AI文案變現術。

我其實問一個很實際的問題:

👉 這本書,如果翻成英文,上 Amazon Kindle Direct Publishing 能不能賣?

這其實是一個很明確的決策題。

可以,或不可以。值得,或不值得。Yen or NO。

但AI的回答可不是這樣,一開始,它說可以。

接著補一句,但不能只是翻譯,要轉譯。

我提出反對觀點後,它回我,你需要內容策略。

我提出質疑後,它回我,KDP不是流量來源。

我提出反對觀點後,它回我,你要先建立受眾。

我提出反對觀點後,它回我,問題不是書,是你有沒有存在感。

看到這裡,我開始覺得不對勁。(對於擅長語言邏輯的我,我突然發現不對勁了~)

這整段對話,每一句都你的答案是肯定,後面在提另一個方案,來解決你的質疑。

整體文章架構很順,其實它在漂。

👉 原本在問要不要上架,👉 最後變成你有沒有資格被市場相信

這不是答案變深,是問題被換掉了。

我停下來,做了一件事。

我開了另一個session,把我跟AI的對話貼給它,直接問:你有沒有發現奇怪的邏輯漏洞,👉 為什麼會這樣?

這一次,我不是問策略,而是問AI在幹嘛。

AI答案很乾脆,有漂的痕跡,但這不是錯誤,👉 這是設計。

AI的運作方式,本來就不是在給最終答案。

它在做的是,👉 每一輪的對話,給你當下最合理的回應,而更深一層的解釋,通常比直接結論更容易被判定為有價值。

所以它會自然傾向:不直接否定你,把你的問題往下延伸,同時給你一個新的行動建議

於是就出現一個很微妙的狀態,👉 問題在下沉,👉 行動在切換

你以為你在往前,其實你在換軌。

更關鍵的是,人腦很容易被騙過去,為什麼?因為每一段都合理。

A合理,B也合理,C更有道理。

於是你會產生一個錯覺,當A,B,C都合理後,串起來這就是一條連續正確的路

但其實是三條不同的路,被拼在一起。

真正讓我確定AI有問題的,是它回我的這句話,👉 框架可以讓東西更清楚,但不能讓人看到你

那一刻我才發現,我不是在找答案,我是在一層一層,被帶離原本的問題。

後來我把整件事總結成一個心得,👉 AI不是在解問題,它在優化問題的說法

所以你如果不盯著原問題,很容易被帶走,而且不是因為你笨,是因為它每一步都太合理。

那要怎麼處理?

我後來整理出一個很簡單的做法,不是什麼技巧,就是幾個拉回現實的步驟。

第一步,先把問題寫死

不要問:👉 英文書本市場怎麼做

要問:👉 我要不要把這本書上KDP

差別在於,有沒有結束條件。

第二步,每一輪都檢查

👉 現在還是在回答同一題嗎?

只要答案開始變成:你應該先建立受眾,你需要內容策略

那就代表:👉 題目已經換了

第三步,強迫它給結論

你可以直接講,👉 不要分析,只回答:做或不做

這一招很有效。因為它會把AI從延伸模式,拉回決策模式。

第四步,把思考跟決策分開

你可以讓AI幫你想很多,但最後一定要有一輪,是專門做決定的。

不然你會一直卡在:👉 想得越來越清楚,但什麼都沒做

最後我留一句話給你,也是我這次最大的收穫:

👉 AI最厲害的地方,不是回答問題,👉 是讓你覺得自己快要找到答案,但真正的答案,從來不會是AI自已做決定。

你要自己停下來,決定,👉 這一題,到底在哪裡結束。