全球知名的AI寫作助理工具Grammarly近期陷入一場巨大的信任危機。其標榜由領域專家提供高品質修改建議的付費功能「專家審閱」(Expert Review),遭多家媒體與使用者踢爆,背後根本沒有真人專家團隊,而是更進階的AI演算法在運作,引發誤導性行銷的強烈質疑。
這項爭議的核心在於「專家」一詞的定義模糊地帶。根據TechCrunch、The Verge等科技媒體的追蹤報導,Grammarly的「專家審閱」功能,會生成看似由特定領域權威人士提出的寫作建議,甚至包含模仿知名記者與學者的口吻,但這些名人完全沒有授權或參與。
更令人譁然的是,Medium上一篇廣為流傳的文章揭露,該功能引用的「專家」名單中,甚至出現了已經逝世的學者。 這種未經同意就擅自使用他人名義、甚至「數位招魂」的做法,被學術界嚴厲批評為「數位死靈法術」(digital necromancy),直指其不僅存在道德瑕疵,更可能觸犯法律。
面對排山倒海的質疑,Grammarly的母公司Superhuman產品與行銷副總裁Alex Gay回應稱,該功能從未聲稱這些專家本人有直接參與或為其背書。 他解釋,建議的生成僅是受到這些專家已公開發表且被廣泛引用的作品所「啟發」。當被問及為何不事先尋求當事人同意時,Gay則表示他們的作品本就已是公開資訊。
不過,這樣的說法顯然無法平息眾怒。批評者認為,Grammarly利用這些專家的聲望來包裝AI建議,是典型的「權威劇場」(authority theater)。 透過在建議旁附上一個響亮的名字,使用者會因「光環效應」而更容易不假思索地接受建議,即使這些建議可能流於表面或根本不適用。
許多專業寫作者與編輯指出,真正的編輯工作是充滿互動與情境理解的。 真人專家能解釋修改背後的原因,並依據文章的特定目的進行協商與調整,這是目前AI難以複製的細膩之處。 將AI生成、缺乏脈絡的建議冠以「專家」之名,顯然是混淆了兩者的界線。
這起事件也凸顯了當前AI產業普遍存在的行銷話術問題。在激烈的市場競爭下,許多公司傾向於誇大其AI產品的能力,模糊人與機器的界線。 美國聯邦貿易委員會(FTC)近年已開始加強執法,打擊涉及AI的誤導性廣告與不公平商業行為,顯示監管機構正密切關注此類亂象。
對使用者而言,Grammarly的風波帶來了深刻的教訓。儘管AI工具在處理基礎的拼寫和文法錯誤上相當便利,但其建議絕非萬無一失。 過度依賴這類工具,不僅可能扼殺個人寫作風格的發展,還可能在不知不覺中接受不恰當的修改,最終產出千篇一律的「罐頭文章」。
許多長期用戶反應,Grammarly的高級功能時常提供過度工程化的解決方案,例如將通順的句子拆解成零碎片段,或是將語氣修改得像制式客服機器人。 這也讓消費者反思,為了一個基本上僅擅長抓錯字的工具支付高額月費,是否真的物有所值。
相關報導:cryptorank.io、mexc.com








