經常看到很多人說AI會出現幻覺,或是它會給錯誤且不實際的答案。
我最近使用它後,發現一件更值得警惕的事。
👉 它不是亂講,而是會越講越合理,最後把你帶去一個完全不同的問題點上。
一開始,我是沒有察覺,因為我出了一本電子書,AI文案變現術。
我其實問一個很實際的問題:
👉 這本書,如果翻成英文,上 Amazon Kindle Direct Publishing 能不能賣?
這其實是一個很明確的決策題。
可以,或不可以。值得,或不值得。Yen or NO。
但AI的回答可不是這樣,一開始,它說可以。
接著補一句,但不能只是翻譯,要轉譯。
我提出反對觀點後,它回我,你需要內容策略。
我提出質疑後,它回我,KDP不是流量來源。
我提出反對觀點後,它回我,你要先建立受眾。
我提出反對觀點後,它回我,問題不是書,是你有沒有存在感。
看到這裡,我開始覺得不對勁。(對於擅長語言邏輯的我,我突然發現不對勁了~)
這整段對話,每一句都你的答案是肯定,後面在提另一個方案,來解決你的質疑。
整體文章架構很順,其實它在漂。
👉 原本在問要不要上架,👉 最後變成你有沒有資格被市場相信
這不是答案變深,是問題被換掉了。
我停下來,做了一件事。
我開了另一個session,把我跟AI的對話貼給它,直接問:你有沒有發現奇怪的邏輯漏洞,👉 為什麼會這樣?
這一次,我不是問策略,而是問AI在幹嘛。
AI答案很乾脆,有漂的痕跡,但這不是錯誤,👉 這是設計。
AI的運作方式,本來就不是在給最終答案。
它在做的是,👉 每一輪的對話,給你當下最合理的回應,而更深一層的解釋,通常比直接結論更容易被判定為有價值。
所以它會自然傾向:不直接否定你,把你的問題往下延伸,同時給你一個新的行動建議
於是就出現一個很微妙的狀態,👉 問題在下沉,👉 行動在切換
你以為你在往前,其實你在換軌。
更關鍵的是,人腦很容易被騙過去,為什麼?因為每一段都合理。
A合理,B也合理,C更有道理。
於是你會產生一個錯覺,當A,B,C都合理後,串起來這就是一條連續正確的路
但其實是三條不同的路,被拼在一起。
真正讓我確定AI有問題的,是它回我的這句話,👉 框架可以讓東西更清楚,但不能讓人看到你
那一刻我才發現,我不是在找答案,我是在一層一層,被帶離原本的問題。
後來我把整件事總結成一個心得,👉 AI不是在解問題,它在優化問題的說法
所以你如果不盯著原問題,很容易被帶走,而且不是因為你笨,是因為它每一步都太合理。
那要怎麼處理?
我後來整理出一個很簡單的做法,不是什麼技巧,就是幾個拉回現實的步驟。
第一步,先把問題寫死
不要問:👉 英文書本市場怎麼做
要問:👉 我要不要把這本書上KDP
差別在於,有沒有結束條件。
第二步,每一輪都檢查
👉 現在還是在回答同一題嗎?
只要答案開始變成:你應該先建立受眾,你需要內容策略
那就代表:👉 題目已經換了
第三步,強迫它給結論
你可以直接講,👉 不要分析,只回答:做或不做
這一招很有效。因為它會把AI從延伸模式,拉回決策模式。
第四步,把思考跟決策分開
你可以讓AI幫你想很多,但最後一定要有一輪,是專門做決定的。
不然你會一直卡在:👉 想得越來越清楚,但什麼都沒做
最後我留一句話給你,也是我這次最大的收穫:
👉 AI最厲害的地方,不是回答問題,👉 是讓你覺得自己快要找到答案,但真正的答案,從來不會是AI自已做決定。
你要自己停下來,決定,👉 這一題,到底在哪裡結束。