https://tfc-taiwan.org.tw/fact-check-reports/taiwan-hoax-principal-scam-20m-fake-article/

網傳「北市退休校長黃瑞德遭詐2000萬」?

民眾應提防投資詐騙,但網傳事件是虛構的創作文

近期社群平台流傳一篇文章,內容描述一名台北市退休校長黃瑞德的詐騙故事;經查,該文章內容源自網友貼文,未提供可信消息來源,並非真實發生的事件。但傳言提及的投資詐騙手法確實可能出現,民眾應有防詐意識,但無須過度恐慌,以免對防詐資訊麻痺。

一、網傳說法目前可追溯到8月17日一篇臉書網友貼文,該文未引述任何可信的消息來源。

傳言宣稱退休校長黃瑞德曾接受媒體採訪,但記者實際以關鍵字檢索網路及主要媒體,也均未找到相關報導與事件。

二、165反詐專線指出,此文章應為網路虛構故事,並非真實發生的事件。民眾若收到此類訊息,可先於網路檢索、查證。

165提醒,傳言提及加入LINE群組後推銷產品或投資等,確實是常見的詐騙手法,民眾應避免上當。

三、防詐專家表示,網傳文章應是以AI創作、想賺取流量的文章。此文章整合了一些可能出現的詐騙手法,並統包成一個完整的故事,導致部分敘事不符常理、或讀起來感覺違和。

專家提醒,這類「驚悚詐騙故事」不僅難以分辨真假,長期下來可能降低民眾對真實防詐資訊的信任,甚至讓民眾誤以為只有誇張手法才是詐騙,反而忽略日常更常見的詐騙模式。

傳言內容提及的詐騙手法可能為真;但描述的情境並非真實事件,過度渲染可能引人恐慌或對防詐資訊疲乏,長期下來可能影響民眾的防詐認知。因此,為「部分錯誤」訊息。

背景

近期,社群平台流傳一篇文章描述,一名台北市明星國中退休校長「黃瑞德」因加入「高層次學術討論」LINE群組,並參與「AI健康管理」與「量子醫療投資」等投資計畫,遭詐騙2千萬元。最終因對方聯繫方式消失,才發現這是精心騙局,撥打165反詐專線並接受媒體採訪分享經歷。

另有傳言版本在開頭處多出「根據您提供的影片,整理出約10分鐘精華文章…」文字,研判網傳內容可能轉錄自某段影片。

網傳訊息擷圖
網傳訊息擷圖

查核

查核點一:傳言來源可信嗎?

網傳內容流傳於不同平台 均未提供可信消息來源

使用關鍵字「臺灣新型養老騙局」檢索網路,可發現傳言最早源自於8月17日的一篇臉書貼文。此外,YouTube頻道「美玲晚年說」於9月6日上傳的影片,提及「黃瑞德 退休校長」、「未來方舟」、「神盾AI健康報告」等關鍵內容,也可找到網路流傳文章訊息一致。

不管是臉書貼文或是影片,未引述可信消息來源。

詐騙7大套路AI文 & AI生成的健康影片3大特徵 (AI文

查核點二:傳言案例是否為真?

165專線:傳言應為虛構文章,但遇到LINE群組推銷產品或投資,仍須小心謹慎

(一)傳言宣稱退休校長黃瑞德曾接受媒體採訪分享遭詐騙的經驗;但查核記者實際關鍵字檢索網路及台灣主要媒體,均未找到相關報導與事件。

(二)查核記者向165防詐專線確認。專員指出,此文章應為網路虛構故事,並非真實事件。民眾若收到此類訊息,可先於網路檢索提到的姓名或事件細節,例如是否有媒體進行相關報導,來確認事件真偽,避免恐慌。

不過165防詐專線提醒,傳言提到加入LINE群組後推銷產品或投資,或是經他人介紹的特殊投資,都是常見的詐騙手法,民眾在接收到相關資訊需要特別小心,避免上當。若遇到無法確認的資訊或影片,也可將訊息傳遞給「165反詐騙系統」進行檢舉確認。

(三)防詐專家、銘傳大學犯罪防治學系助理教授林書立表示,網傳文章應為以AI創作、想賺取流量的文章。此文章整合了一些可能出現的詐騙手法,並統包成一個完整的故事,導致部分敘事不符常理、或讀起來感覺違和。

林書立說,現行詐騙樣態確實多樣,民眾應該要提高警覺,但對於網路上過於誇張、渲染的故事,可以警惕、不要過度擔憂。

(四)防詐專家劉彥伯也提醒,許多人誤以為這類「驚悚詐騙故事」或「誇張案例」具有教育或提醒效果,但實際上可能造成反效果。首先,這類訊息會讓觀眾難以分辨真假,長期下來可能降低對真實防詐資訊的信任;其次,極端化的情節會讓民眾誤以為只有誇張手法才是詐騙,反而忽略日常更常見的詐騙模式。此外,這類內容的創作者多半以博取眼球、賺取流量為目的,與真正的防詐教育動機不同,一旦錯誤內容大規模傳播,還可能製造社會恐慌,甚至被詐騙集團利用來混淆視聽。

補充資料

專家:AI內容農場影片使用誇大故事包裝假資訊,目的為吸引流量

防詐專家劉彥伯指出,這類農場影片常用「說故事」的方式來包裝假資訊,並大量運用「量子」、「人工智慧」等熱門詞彙,或是捏造如「家人受傷」、「突發財務狀況」等誇張情節,讓內容「看起來很真實」。而且這種手法比調查或拍攝真實內容更省時、成本更低,卻能快速吸引流量並製造話題。

國家資通安全研究院研究員戴毓辰也曾分析,目前網路出現以文字轉語音(Text-To-Speech,TTS)技術,搭配生成式AI圖片或影片與網路既有圖像素材的混合呈現。製作者無需進行實地採訪、攝影或現場報導,僅需收集網路的公開資訊,透過AI工具即可快速產出看似專業,實則漏洞百出的影音內容。

詐騙7大套路AI文 & AI生成的健康影片3大特徵 (AI文

 

https://tfc-taiwan.org.tw/ai-generated-health-videos-public-health-concern/

AI生成健康影片爆量!真假難辨成公衛隱憂

詐騙7大套路AI文 & AI生成的健康影片3大特徵 (AI文

查核記者/曾慧雯;責任編輯/陳偉婷

你有沒有發現,有時候在影音平台用關鍵字搜尋健康資訊,經常找到一些標題吸睛聳動、內容顛覆過往認知的健康科普影片。點進去看,影片通常引述某資深醫師的說法,再舉出多個案例與權威醫學研究,令人看得膽顫心驚。不過,若是多看幾則,又會發現這類影片起承轉合均十分相似,有著近乎公式化的套路……原來,這些都是AI自動生成的影片!

儘管影片內容錯誤百出,卻包裝得專業嚴肅,讓閱聽人難以分辨資訊真偽。專家提醒,AI影片製作成本低、產製快,已成為一種產業模式。其中資訊常常真偽混雜,民眾應提高警覺,避免誤信誤傳。

 

AI生成的健康影片3大特徵

查核中心觀察到,網路上如雨後春筍冒出的AI生成健康影片,通常具有「標題吸睛聳動」、「虛構人物、情境」、「說法含糊不清」等特徵。

以「微波加熱白飯有害健康」影片為例,其標題聲稱冷藏的白飯不可以用微波加熱,以及教大家煮出能降低血糖的低熱量米飯,頗能吸引閱聽人目光。進一步檢視網傳影片內容,卻發現影片主講人開頭宣稱行醫55年、現年85歲的醫師,2分鐘後又改稱自己行醫經驗為35年,明顯前後矛盾,可合理懷疑為虛構人物。

影片內容提及大量的研究,例如「2022年哈佛大學公共衛生學院研究」、「約翰霍普金斯醫學院研究」、「日本東京大學山田教授團隊研究」、「英國牛津大學研究」等,但說法含糊不清、沒有提供確切的文獻資料。查核記者試著以各種關鍵字查詢,都沒有找到相似的文獻。

另外,Youtube上也可找到許多類似的頻道,大量上架風格相似的健康主題影片,例如「吃這3種蔬菜毀掉關節」、「老年人睡前吃8種食物,睡一覺就能增肌」、「鹽水是最強漱口水」、「九層塔的驚人秘密」等「類農場」標題,以聳動、誇大字眼吸引閱聽眾關注。經查核中心查證,這些影片均夾雜許多錯誤資訊。

面對大量AI生成的健康類影片,國立陽明交通大學口腔組織工程暨生技材料研究所助理教授林宥成表示,醫學上「有關聯」並不等於「有因果關係」,當醫師或學者談及醫學研究,通常都是很保守的,因為醫學一直在進步,很多研究也還沒有得出定論,因此,如果民眾看到網路影片的內容講得非常斬釘截鐵,但似乎又與日常經驗有落差時(例如「吃微波後的白飯有害健康」、「吃茄子會毀掉關節」),就有滿高的機率可能有問題,不要在第一時間就相信、轉傳。

郵政醫院營養師黃淑惠也觀察到AI健康影片的氾濫。她提醒,AI健康影片多呈現「將單一成分的好處無限放大」、「說法似是而非」,這其實是一套健康假訊息常用的話術,民眾看到時就應提高警覺。

台灣大學健康行為與社區科學研究所助理教授黃柏堯指出,這類型的AI健康影片往往簡化複雜的健康行為與風險因果關係,提供一種過度化約的答案:「只要做A就能達成B」

黃柏堯說,當越來越多人依賴這些「快速解方」而不是專業醫療意見時,小則可能造成錯誤飲食或自我傷害行為,大則會導致資訊不平等的加劇與不可逆的健康後果,例如部分民眾可能因為深信這些AI影片內容而延遲就醫,錯過疾病治療的黃金時機,這對個人健康與公共衛生治理都構成挑戰。

當AI影片成為一種產業 

國家資通安全研究院專家表示,此類影片應是以「剪映」類型的軟體製作的AI影片,從生成內容、影像、剪輯、口白一條龍產製,可短時間大量生成類似的內容,在不同的平台擴散。

專家指出,透過剪輯軟體,再加上AI自動量產,幾乎已經把AI影片產製的成本降至零。此類AI生成內容常常看起來正確、專業,但其實夾雜虛構和誤導的資訊,是人工智慧生成的「幻覺」,讓人分不清真假也是AI的危險之處。

查核中心也觀察到,「教導、協助用戶以AI製作影片」已經成為一項產業,許多付費使用的AI創作工具提供多種影片模板與形式,例如「數字人口播」、「輸入文字再由AI自動生成動畫」、「AI自動將圖片與文案剪輯成影片」等,因此,用戶甚至只需要輸入一句話就能生成影片腳本,再自動生成AI短影音,彈指之間一鍵生成。

詐騙7大套路AI文 & AI生成的健康影片3大特徵 (AI文

另外,也有人利用DeepSeek製作類似的「健康類影片工作流」服務,只要民眾付費加入其會員,在表單輸入想要生成的主題(如眼睛、心臟、肺部)和影片類型(如健康建議、可能後果)後,就可以自動生成影片標題(如「5個保護眼睛的簡單方法,每天做讓你的視力不再惡化」)、簡介、逐字稿文案等。接著,系統會把文案交給AI語音生成配音,再搭配可對應影片的圖片等素材,就能自動合成出一支完整的健康科普影片。

詐騙7大套路AI文 & AI生成的健康影片3大特徵 (AI文

這類工作流並不限於健康類影片,只要改變指令,即可應用於理財、生活知識、教育、政策法規、寵物、鬼故事等主題。由於利用AI生成影片已經可以做到全程零剪輯、零寫稿,製作門檻相當低,因此,近來各類型AI影片也大舉入侵YouTube等影音平台,再進一步流傳到臉書個人、社團頁面。

AI影片用虛構故事驅動「感性腦」

國立陽明交通大學智慧科學暨綠能學院副教授許志仲表示,早在2021年「小玉Deepfake換臉事件」(網紅小玉利用Deepfake深偽技術將多位女性名人的臉部影像做成不雅影片販售)發生時,就已經出現「深偽換臉」的教學了,甚至逐漸成長、形成產業模型。

他指出,影音平台流傳的AI自動生成影片主要是想靠流量賺錢,為了達到這個目的,題材就必須吸睛、具有獨特性,所以主題會一波波不斷更換,好讓閱聽人有新鮮感,例如敘述方式聳動的健康類影片,可能就會吸引民眾注意。

許志仲認為,以健康類影片來說,製作並散布的人可能不見得是出於惡意,而是本身就缺乏辨別資訊真假的能力,再加上AI文本是跟隨人的指令而生,AI本身並不對產出的文字負責任,也因此這類AI生成的健康類影片,通常都會充滿似是而非、真假混雜的內容,並不可信。

另外,由於人們「感性腦」的驅動速度往往快於「理性腦」,所以這類型影片的公式往往是先用虛構的人物、情境、故事起頭,再帶出其論述。許志仲說,當閱聽人的感性腦已經被喚起後,就不太會再去追究其論述內容的真假。

例如,這類影片開頭會先描述「我是行醫55載、今年85歲的鄭勝明博士」、「台中有一位70歲的林伯伯非常注重飲食健康……半年後膝蓋開始出現嚴重的腫痛症狀,甚至到了走路必須依靠枴杖的地步」,或是「67歲的林美嬌女士服用糖尿病藥12年後,病情惡化, 但僅改變煮飯方式5個月就出現奇蹟……」等,讓閱聽人一步步踏入AI影片的虛構情境。


黃柏堯也表示,此類AI健康影片常常給人一種「似人」、具有「科學權威」、短時間內能夠針對複雜健康議題提出「全方位解方」的錯覺,就像某些能言善道的偽專家或網紅看似值得信賴,實則缺乏相關專業基礎。

當網路充斥AI內容,識讀、教育才是解方

除了AI生成的健康類影片氾濫外,許多民眾也喜歡利用AI問診,把自己的不適或疑惑描述給AI看,試圖得到解答。許志仲提醒,即便AI多數時候是對的,但必須注意的是「多數時候正確並不代表永遠都對」。

根據黃柏堯的分析,「AI問診」可以分為兩個層次,第一層是相對常見的健康行為,例如用AI工具搜尋健身、營養或一般症狀資訊,這類風險相對較小,因為若資訊有誤,身體往往會立即反映。然而,第二層則涉及更嚴重的風險,尤其是心理健康與醫療判斷,例如有研究與報導顯示,AI 有時可能以不當方式回應使用者,甚至變相鼓勵自傷或自殺。這種情況反映出,科技介入的自我照護與親密互動,已從「我想和人交談」轉向「我以為我在和人交談」。

他說明,AI演算法本質並非設計來「關心」人類,而是以提供可預測性為目標。AI或許能快速生成大量內容,給予看似合理的建議,但缺乏真正臨床判斷所需的脈絡。因此,當民眾過度依賴AI工具解釋症狀,可能會延遲就醫,錯過及早治療的時機,不僅可能誤導個人健康行為,也可能削弱對專業醫療系統的信任,讓公共衛生政策推行更加困難。

此外,黃柏堯認為,在過去的數位世代,健康資訊的傳播仍與「人際照護」有所連結,但在AI世代,這些對話更像是一種數位展演。他指出,人與AI的互動牽涉到隱私與數據收集問題,個人的健康資訊與私密對話可能成為數據資源,被用於其他目的而非照護本身。

黃柏堯指出,AI影片帶來的「擬人感」與「科學性幻覺」,並非真實的科學判斷或關懷。隨著 AI與日常生活的滲透加深,建立更全面的AI識讀能力將是未來公共衛生的重要課題。

許志仲也表示,現今AI生成的內容已經很普遍,民眾要先有這個認知與意識,才不會在網路上看到什麼都全盤相信。放眼未來,將會有越來越多網路資料都是由AI所生成,面對AI的進步與AI內容的暴增,人的學習將更加重要,只有透過教育、學習、與AI工具合作,才有辦法建立起判斷資訊真假的能力。

全站熱搜
創作者介紹
創作者 喔…喔… 的頭像
喔…喔…

熱血流成河

喔…喔… 發表在 痞客邦 留言(0) 人氣()