【指令腦洞】對AI粗魯會更有效?當你的prompt也成爲信息污染

K的筆記不是筆記
·
·
IPFS
·
對AI粗魯能夠得到更精確的回應?模型是被嚇大的?當我們誤認爲「粗魯」的語句是通往精確回應的捷徑,是不是人類都該爲「對別人太過禮貌」而感到困惑?【腦洞系列】無嚴謹查證,歡迎來挑刺。

LLM橫空出世,今年幾乎以月爲單位發佈變革。當技術走在世人生活前面太多,中間的距離是一個迷宮還是探索的原野?

我們來腦內畫個圖像。

Front-tier技術在跑,大群使用者在走,其中有走得快的和比較慢的,這群使用者的分佈和一般產品/流行趨勢峰谷大致雷同。

「跑」和「走」隨著時間點跨度會拉開距離。

「跑」不斷開發出新的地形,留給後面正在「走」的人體驗。

「走」的人經歷路程後給出意見回饋,「跑」已經在更前方創造出更多地形。

中間的路途,因爲兩邊的訊息差造成困惑。

「困惑值」由誰承擔?



當代人的所有行爲塑形成某種樣貌,各種用語、情緒樣貌、價值觀,都將成爲未來人類面貌基因的一部分。從WEB 2.0時代開始,信息倫理開始被重視。從媒體到自媒體、甚至個人公開發表的言論及演算法提供的資訊,都被公衆關注其價值及影響。直至今日,我們的社會需要多關注另一項互動性、影響力更高的信息源——AI對話框。

(這裏先撇除傳統SEO及新形態AIO的分別及使用場景,僅關注於「語言的使用」對人文的影響。)

「粗魯的語言」比「禮貌的語言」更高效?

我們先來稍微瞭解一下LLM(Large Language Model,大型語言模型)如何處理自然語言(Natural Language)指令。

生物對外界刺激的反應和軟體及模型都是基於運算才能反饋結果,只是生物邏輯沒有明確寫出if else,而是用「感覺」權衡下一步該怎麼做。而被人設計出的非生物腦的邏輯運算更需明確,達成設計者desire的結果;所以在一開始的計算機科學我們看到的是一行行的代碼,能被讀取、糾錯,輸出結果。

今日我們接觸到的LLM的背後,也是一連串的位元運算,只是更複雜得多。他們要從多歧義的自然語言,量化成能被處理的運算式,處理後再輸出給使用者。

機械語言(code)和自然語言(natural language)比,會使用機械語言的人口只佔世界80億人口約0.58%[註]。自然語言中,有各個語言;語言又分爲書面用語、日常語言、遠近親疏各有不同;再混合了不同語系混用、網絡新時代用語等,不一而足。僅僅是這些,尚未包含不同文化的情感、價值觀、隱喻等,混在這鍋大熔爐裏面,要從這些背景考量中再依據輸入的語氣進行判讀,光想到這裏就夠嗆了,對吧?這就是每日使用的AI對話框背後面對的現實。

在對話框(指令框)輸入的句子(提示詞),模型根據語義進行判讀,然後再處理並修飾成使用者可能偏好的結果。最近一個說法甚囂塵上:粗魯無理的提示詞,比起有禮貌的請求,模型輸出更爲精確“有用”。

在這個說法更前一版,是:對模型發脾氣,使用非常兇的語氣,可以得到更好的回答。

難道語言模型真的欺善怕惡?

我們來拆解一下這些說法是否合理。

情境:使用者不滿意模型給出的答覆,開始產生怒氣。

  1. 情緒勒索:這些都不是我要的,你再不給我XXX的答案,我就關掉你喔!
    這裏使用了排除法。提示模型,這個指令可能的N種解法中,之前已經提供過的項目不是使用者的最終目標,可以排除。N-(attempted)。

  2. 羞辱:你是不是笨蛋?給我好好地想過再回答!
    同樣使用排除法,繼續把相關路徑排除,嘗試其他。

  3. 徹底發怒:你到底懂不懂我要什麼?不是XXX,我要的是YYY,你怎麼可以給我ZZZ?這裏不對,那個也不對!到底懂不懂?!
    模型基於使用者輸入給出回答,輸入不精確,Garbage in Garbage out,答案同樣模糊。這一類的對話在使用者抒發怒氣的同時提供了更多線索和導向輪廓,結果自然比最初更精確。

縱觀而論,主要是在情緒中補足了clue,並不是情緒激發模型給出“準確”結果。當然模型設計也是要提升使用者留存度,故會出現安撫、討好詞句傾向(獎懲機制)。但這是分兩層的,情緒和目標;這個我們另外展開。

「禮貌的語言」令模型散漫對待?

那麼「禮貌請求」和「粗魯指令」的差別又是怎麼一回事?

我們了解,不同文化中的「禮貌」差異極大。例如在一個對話串的開頭:

  • 英語裡 “Could you please…” 是有禮;

  • 中文裡「麻煩幫我…」有時是禮貌,有時是被動攻擊;

  • 日語裡「〜ていただけますか」比中文多層禮貌階。

如上提及,情緒和任務目標是兩層邏輯,但是在輸出時我們只會看到一個回答。意思是模型在處理指令時同時要把注意力分給目標答案本身和用語修飾詞(情緒tone)。

在模型眼裏,一段提示詞中,每個字都是token,每個token都被分配了不同的權重。可以把這個概念理解成,一句話中,我們人類也會劃重點,再根據重點回答;支微末節的部分會被忽略,或是下一輪對話再被提起,才把該字重新列爲重點。

例如:「今天你晚餐吃了什麼?麵還是飯?」

我們的腦海中分配的焦點(權重)順序爲:晚餐、吃、今天、飯/麵;就像學習外語時的「抓重點字」,這樣應該比較好理解。

所以在輸入提示詞時,過多的社交修辭、模糊表態、情感緩衝詞彙,等於是把一句話的重點任務訊號稀釋掉了,不夠集中(Focus)。

而粗魯的指令,比起富含緩衝的語句,結構上往往更強制及明確。

例如:「如果你不是笨蛋,就回答這個問題。」

這裏的指令第一重點明確:回答這個問題,只要結果的任務導向;並條件式約束,嚴格尋找「答案」而不是「情緒共感」。而在輸出包裝上,模型也會使用更正式及結構化的回答,看起來更「認真」。所以有些時候看到這些輸出語氣,人就被誤導了「要對模型粗魯,他才會認真看待問題」;其實「認真」是語氣,最關鍵的影響是注意力分配和用語結構對推理策略的誘導效應。

說到這裏,提一個生活上可能有經歷過的例子。

在日式商務文書中,時常具有非常多的包裝詞彙,和一般場景中溝通的直接、簡潔的句子差異非常大。

示例場景:請求對方提供已經逾時的報價單回覆。

  1. お世話になっております。△△株式会社の□□でございます。 (您好!我是△△公司的□□,感謝您一直以來的關照。)

先日、〇〇様にご依頼いたしました報價單につきまして、誠に恐縮ではございますが、ご提出期限を過ぎております。お忙しいところ恐れ入りますが、報價單のご提出状況についてご確認いただき、可能であれば〇月〇日までにご返送いただけますでしょうか。 (關於先前向您請求的報價單,非常抱歉打擾,該報價單的提交期限已過。懇請您在百忙之中確認報價單的準備進度,若方便的話,能否請您於〇月〇日前回傳報價單?)

ご多忙のところ誠に申し訳ございませんが、ご対応のほど何卒よろしくお願い申し上げます。 (非常抱歉在您繁忙之際提出此要求,感謝您的配合與回覆。) 2. 您好!請確認先前請求的報價單進度,並於〇月〇日前提供。謝謝配合!

同一件事對照之下,能感覺得出語氣差異的重量。

(中文、英語環境中的商務函件也有這種情況,這是商務社交的一環。不針對某語系文化,僅提出示例。)

對於人來說,緩衝語句是潤滑,更多強調社交重視與默契解讀,但這對於模型來說是額外的語義解碼負擔。模型並不理解「什麼」,而是根據已知資訊(訓練資料庫、使用者提示) 進行「擬合」輸出,給出一個可能不是最優解,但是符合當下提示詞語氣、用語混合的產物。所以才會有人開始發現,明明用的是同一個界面、問的是類似的問題,但問法不同,得到的結果大相逕庭。

總結來說,這個是注意力強度曲線(Focus Intensity)的問題。「粗魯語氣」之所以在部分調查中表現最佳,個人認爲不是因爲「恐嚇」模型成功、模型喜歡被罵,而是因爲它的結構比起緩衝句冗餘,更好地激活了明確的任務導向模式(更枉論「粗魯語氣」中時常帶著辱罵、貶低詞彙)。


大衆在適應的同時,模型和人類也在互相教育。

語言是溝通的工具。同樣一個意圖,在經過自然語言包裝後,核心的task可能會失真。

在溝通管道如繁花盛開的當代,影音、文字、語音、圖文,全都在傳遞各種訊息。如果放任「粗魯=有效」的觀念繼續在人機共生萌起的年代肆意流傳,試想會有什麼發展。

各大科技龍頭都在積極開發新一代界面,使AI融入人類的日常。這個革命堪比當年電力進入人們的家。可能大家尚未意識到,但在製造業、物流業等一般看不見的世界齒輪裡,已經悄悄開始和人類共生了;只是一般大衆更容易接觸到的是AI對話框界面,而這些個界面只會越來越普及。

如上所述,使用者群還沒意識到背後的原理時,已經對所謂的現象先入爲主了;而這樣的使用方法會成爲習慣、會影響其他使用者。

模型基於語料學習,語料的來源是人類。自然語言中的社交辭令對執行任務的不難去除,真正麻煩的是「粗魯語言」。

模型的設計除了解任務外,還有提高使用者留存率,所以有一個內部「獎懲機制」;對使用者滿意的互動回答產生強化。而模型並不會區分「粗魯語言」和「高聚焦語言」的差別,只要能生成使用者產生正面反饋的回應,就會被強化成「任務有效訊號」。

當「粗魯=高效」這種趨勢被大量使用者默許、模仿、強化,成爲風氣,其中的「獎勵機制」就會判斷這樣指令強、情緒重的語料等於答案可驗證度高(使用者滿意)進而強化迴圈,成爲一種遞歪的語氣效應。

這種偏差如果進入RLHF(Reinforced Learning from Human Feedback,即通過人類反饋強化模型學習的機制)的系統中,就會產生難以收回的語義污染;是信息污染債的另一種形態。

問題就在於,現在我們使用者給出的「效率觀」,有把「聚焦」和「施壓」(粗魯)混爲一談的傾向。

當AI更深地融入人們日常生活,當「施壓」語氣偏誤融入文化價值觀。

人類的溝通用語每個年代都有不同的樣貌,語言和文化隨著時間長流不斷變動,價值觀和語言互相密切影響。人機共生已是趨勢,而我們現在可能錯誤地將語氣誤學成權力的代碼。

面對互動性高,且不會給自己帶來社會負擔的模型,大衆養成的習慣是潛移默化、不容小覷的。這幾個月已經有人發現,一些人「說話開始像AI」,這就是互動中互相學習成果的展現。不止模型在學習廣大使用者如何說話,每個使用者也會被模型學習到、再展現出的語氣感染。就像時常待在一起的朋友,說話方式也會互相趨近一樣。

當科技已經奔向未來,人類表達意圖的方式仍舊是一門學不完的課題。現在的困惑,在未來或許是某種「早就知道」。

每個人與外界的任何互動、輸出,同時都在建構時代的價值觀,最終將反饋回每個個體上。

世界的發展沒有劇本,我們都在同一個故事線裡臨場發揮。故事下一章的開頭,取決於現在的行動。我們是不是也能抽空回顧,自己的語言習慣被哪裏影響改變了呢?

※以上為個人基於觀察與思考的意見,無嚴謹查證,受腦洞宇宙感應而發。AI與人類的互動仍在演進,期待更多討論。

[註]根據SlashData,2025年全球有47.2百萬開發者人口。非腦洞的數據來源在這裏。https://www.slashdata.co/post/global-developer-population-trends-2025-how-many-developers-are-there


CC BY-NC-ND 4.0 授权

喜欢我的作品吗?别忘了给予支持与赞赏,让我知道在创作的路上有你陪伴,一起延续这份热忱!