分類: AI

Breadcrumb Abstract Shape
Breadcrumb Abstract Shape
800_63911_2f072b0791c444d7c3b9c6d52e3a8d4f

母語才是最強的AI編程語言

在大學傳理學院的課堂上,我面對的是一群即將步入職場的年輕人。最近,我經常捕捉到他們眼神中的迷惘,當機器能寫稿、能作畫,甚至能自動剪輯,那些苦練多年的文字功底與敍事能力,是否還能在人工智能(AI)橫掃全球的未來,為他們守住一份競爭優勢? 我向學生分享了一個扭轉職涯視野的新觀點。這份信心並非源於教育者的樂觀,而是來自科技巨人、Nvidia執行長黃仁勳的一個斷言。他指出,我們正處於歷史性的轉折點:未來最強大的編程語言,既不是C++,也不是 Python,而是我們與生俱來的「母語」。隨着技術進步,人類不再需要卑微地學習機器的語言,因為機器終於學會了人類的語言。這不只是技術變革,更是對教育界的一個重大啟示。 從寫代碼到下指令 過去半個世紀,數字世界的入場券掌握在少數技術精英手中。為了驅動電腦,人類必須學習生澀的代碼,少了一個分號,創意就無法運作。這本質上是「人適應機器」的妥協。 不過,黃仁勳宣告了這種妥協的終結。現在,AI已經強大到能直接捕捉人類的「意圖」。如果你想開發應用程式,不再需要在那幾萬行代碼裏苦苦掙扎。你只需要像對一個專業團隊發令,用最熟悉的母語,清晰、精準地描述願景。AI代理會負責那些枯燥的「翻譯」工作。而你,終於可以從「打字員」的角色中解脫,重新回到「定義者」的位置。 敍事即是統籌力 在教育現場,我們常問:「如果人人都能說話,孩子的優勢在哪裏?」 事實上,我們正進入智能體時代,現在的AI已經不再只是回答問題的聊天機器人,而是能自主串聯任務、執行複雜流程的「智能代理」。在這種環境下,「寫作」不再只是修辭,而是一種極其精密的編排技能。 孩子能否用文字清晰地定義目標?能否邏輯嚴密地拆解一件工作的流程?能否在多個AI智能體之間進行高效的協作與調度?這需要極強的語言架構能力。一個無法精準表達的人,將無法有效指揮AI團隊。 這種能用文字「調兵遣將」的編排能力,才是未來最強大的競爭護城河。 高階思維的布局 當工具愈普及,思想的溢價就愈高。 在AI時代,「提問的質量」決定了「答案的價值」。當編程門檻降到零,真正的競爭是結構化思維的深度。我在大學課堂看見,那些擁有深厚文化底蘊、邏輯嚴密的孩子,能給出具備「靈魂」的指令(Prompts)。 我們必須重構對「創意」的定義。一位優秀的建築師不需要親自砌磚,但他必須對空間比例、光影流動有絕對掌控。在引導中小學生使用AI時,我們應要求他們在大腦中先完成一場精密無聲的演習:預判受眾反應,構築敍事邏輯。這不是在學工具,是在學如何駕馭一個龐大的可能性。 語言就是新主權 長期以來,香港教育體系習慣把「文」與「理」劃清界線,但黃仁勳的視角徹底模糊了這條線:如果「語言就是編程」,那麼傳達與溝通本質上就是一種「人文工程」。 對於香港這個中西合璧、資訊交滙的場域,這是一個巨大的戰略契機。我們引以為傲的雙語能力與跨文化視野,其實就是全球最頂尖的「多語言編程接口」。我們不應讓孩子在枯燥的應試語法中耗盡熱情,而應鼓勵他們用母語去橫跨科學、藝術與社會議題。當學生能用優雅精緻的文字去驅動世界上最強大的運算力時,我們才真正掌握了時代的話語權。...

800_63666_7846530849f479e172ded288a65bee4d

AI時代真正需要升級的是人

過去二十年,筆者在科技行業工作,近年亦投入人工智能(AI)教育發展。這兩年,我經常與同事、家長、校長和教師討論同一個問題:孩子應該如何面對AI的未來?我們談技能、談競爭力、談編程、談AI素養,也思考是否應該更早、更有系統地讓孩子安全學習 AI。這些討論十分重要,因為科技能力正逐漸成為下一代的生存條件。 不過,在一場又一場「為未來準備」的對話背後,我反覆問自己一個更根本的問題:當世界愈來愈聰明,人還需要培養什麼? 未來不只屬於更快的人 我的女兒自幼便接受非傳統的華德福教育體系的教育。她的學習節奏並不急促,慢慢畫畫,慢慢說故事,慢慢完成一件有溫度的手工藝作品。沒有排名,沒有分數壓力。在一個講求效率的社會裏,這樣的「慢」常常令人不安。 不過,當我看見她專注投入、不急於完成,我開始明白,那不是落後,而是對成長節奏的尊重。未來真正稀缺的,或許不是知識,而是專注力;不是速度,而是穩定。 AI的確可以幫助我們完成大量工作,包括整理資料、生成內容、撰寫程式與分析數據。它放大效率,也降低門檻,但AI無法替人建立內在秩序。它不能代替孩子在困惑中等待,也不能取代在沒有標準答案時反覆推敲的思考歷程。 如果孩子習慣即時回應,他還能與問題共處嗎?當答案瞬間生成,他還願意追問「為什麼」嗎?科技愈發達,我愈相信,思辨能力、情緒穩定、同理心與溝通能力,才是長遠的底層能力。 在機器時代 人必須更像人 不少站在AI發展前線的科技領袖,在談及自己孩子的教育時,也並非只強調技術專精。《華爾街日報》曾專訪Anthropic共同創辦人 Daniela Amodei,她指出,在AI快速演進的時代,重要的未必是培養孩子過早成為技術專家,而是培養他們清晰思考、良好判斷,以及與他人合作的能力。技術會不斷更新,但思考方式與價值判斷,才是能夠穿越時代的能力。 這樣的觀點,其實回到同一個核心。我們害怕落後,害怕錯過,害怕孩子輸在起跑線。然而,當效率被無限放大,當答案隨時可以生成,也許更需要守住的,是那份能夠安靜思考的能力。 真正的問題或許不是「要不要學AI」,而是「在學會駕馭工具之前,我們是否也教孩子駕馭自己?」 我並不認為華德福教育是唯一答案。傳統教育在知識建構與學科訓練上有其深厚基礎,而科技教育在孩子成長過程中亦不可或缺。不過,在強化技能的同時,我們是否同樣重視孩子的內在成長?這份責任,不能只交給學校。家長的身教、意識與價值觀,往往更為深遠。 未來屬於能與AI協作的人,但更屬於那些在快速變動中仍能保持方向與深度的人。工具會愈來愈聰明,世界會愈來愈快。真正決定孩子能走多遠的,不是他掌握了多少工具,而是他是否知道自己為何而學,為誰而用。 在AI時代,願我們的孩子,不只是更有效率,而是更有方向;不只是更懂技術,而是更懂自己。...

800_63589_357df55a2a989c46832d953747846060

AI讓新來港學生被看見

身為一名投身教育科技產業的人,我經常被問,人工智能(AI)會不會改變教育。在香港,我更常被問的是,它能否使教育變得更公平。當科技愈來愈聰明,它是在拉開距離,還是在拉近彼此。它會讓原本跑得快的孩子更快,還是能讓仍在適應環境的孩子也被看見。 今天的香港校園比任何時候都更加多元。來自中國內地、南亞,以及世界不同角落的孩子,坐在同一間課室裏。他們語言不同,成長背景不同,家庭故事也不同。鐘聲一響,他們一起上課,一起交功課,一起為測驗緊張。制度在資源分配上力求一致,課程標準清晰,評核機制透明。然而,一致並不等於每個人都已準備好。 語言往往是第一道無形的牆。香港課堂以粵語為主,而粵語不只是溝通工具,更是一種文化節奏。教師的一句「你再諗諗」,可能是鼓勵,也可能是提醒。對於剛來港的孩子而言,即使聽懂字面意思,也未必理解語境。再加上香港教育節奏明快,許多學生仍在適應城市生活與校園規則,評核卻已同步展開。問題往往不是能力不足,而是在尚未熟悉規則之前,已經被同一標準衡量。 公平不是讓所有人走同一條路,而是讓不同起點的人,都能看見出口。 讓理解發生在當下 在我看來,AI的價值不在於取代誰,而在於縮短理解的距離。人工智能已能提供多語種說明,但真正重要的不是翻譯,而是轉譯。當學生與家長能清楚理解操行分、校本評核或家長日安排,他們讀懂的不只是詞語,而是制度本身。理解增加,焦慮自然下降。 AI也可以成為安全的練習空間。課堂問答、小組討論、與教師溝通,都能在低風險環境中反覆嘗試。當錯誤不再被立即放大,自信才有機會慢慢建立。它同時能協助學生管理學習節奏,提供提醒與建議。對於剛接觸香港教育制度的孩子而言,這是一種支持,而不是監控。 除了翻譯與練習,AI還能發揮更深一層的作用。它可以協助學校看見一些平日不容易察覺的學習訊號,例如參與度的變化、某些課題反覆出現的遲疑、作業完成情況的持續下滑,甚至在討論中逐漸沉默的傾向。這些片段單獨看或許不起眼,但當模式被整理出來,教師便能更早察覺學生正在面對的困難。這並不是要以科技取代專業判斷,而是讓教育工作者在繁忙的教育現場多一雙輔助的眼睛。當支援能夠提前介入,公平就不再只是事後補救,而是預防。 當然,AI不能消除家庭背景差異,也無法解決所有結構性問題,但它可以減少因語言與資訊落差而產生的額外障礙。如果制度提供標準,AI能提供理解標準的途徑。它不是答案本身,而是一種讓機會更早出現的工具。 在融合中守護粵語 談到多語支援,有人擔心會削弱粵語地位。這份擔憂值得尊重。粵語承載香港的歷史與情感,是這座城市的重要根基。不過,文化不是靠排除來保存,而是靠自信延續。 AI的角色不是替代中文學習,而是幫助學生更有信心地運用粵語,縮短走向社會共融的距離。當新來港的孩子更快理解語境與脈絡,他們反而更有能力參與本地對話。理解愈容易,融入愈自然。當不同背景的孩子都願意用粵語交流,參與社區生活,文化就不再是界線,而是連結。 AI不能創造公平,但它可以減少不必要的不公平。當科技被用來拉近距離,而不是放大差異,教育就會多一分溫度。真正的改變,也許不在於演算法有多精準,而在於有多少孩子,因為及早被看見,而不再在適應中慢慢落後。   撰文︰Ringo FaiLexGo Academy 共同創辦人、香港城市大學媒體與傳播系講師、一位女孩的爸爸。專注...

800_63424_bf8bba26310abce2c2993bd08fd8daae

一張錯誤的AI影像 真正考驗的是學校

近一段時間,我與不同中學教師、校長及教育工作者交流時,不止一次聽到一個相似的問題︰如果學生使用生成式人工智能製作圖片或影片,內容出現錯誤甚至不準確,而學生本身並未察覺,學校應該如何處理? 這個問題乍看之下與技術有關,實際上卻反映一個更深層的教育處境。當內容可以快速生成,但未必可靠時,學校究竟應該為學生把關的是什麼? 錯誤不是例外 而是可預期情況 從創意媒體與人工智能系統的角度來看,生成式人工智能產生錯誤或不準確內容,並非偶發,而是其運作邏輯的一部分。 從技術層面而言,部分較早期的影像生成模型,往往會把運算資源集中於畫面中的主要焦點,令主體看起來格外清晰合理,但畫面中其他層次則較容易出現比例或邏輯上的不一致。這種局部真實而整體失衡的情況,正是使用者難以即時察覺問題的原因之一。 隨着生成技術持續演進,這類明顯的破綻雖然逐漸減少,但錯誤並未消失,只是變得更細微、更不易辨認,對使用者的判斷能力提出了更高要求。這亦提醒我們,技術的進步並不能取代人類對內容真實性與合理性的責任。 因此,當學生提交的影像或影片包含錯誤資訊時,這未必意味學習失敗。真正值得關注的,是學生是否意識到內容可能有誤,是否嘗試核實,以及是否理解錯誤資訊一旦被使用或公開,可能帶來的影響。 當生成變得容易 判斷成關鍵能力 在生成式人工智能逐漸進入校園日常後,教育面對的關鍵問題,已不再是工具本身,而是學生是否仍然具備基本的判斷能力。 在這樣的環境下,真正稀缺的能力不是能否產出內容,而是能否判斷內容是否合理,能否辨識看似真實但實際不準確的資訊,以及是否願意為自己所使用與發布的內容承擔責任。 不少學校會問,是否可以從技術層面判斷一張圖片或影片是否由AI生成。以現階段的發展而言,並不存在百分之百可靠的方法。各種技術工具只能作為輔助參考,若過度依賴,反而容易把一個教育問題轉化為信任與公平的難題。 學校的回應本身就是一種教學 正因如此,當學生使用生成式人工智能產生錯誤內容時,學校的處理方式,本身就構成了一種重要的學習訊號。在實務層面,學校與教師可考慮以下原則,作為處理相關情況的行動框架: • 先區分學習與評核情境,學習活動中的錯誤應以引導與修正為主;• 把焦點放在學生的判斷過程,而非只看作品是否正確;•...

800_63374_1e45894bdbb6dd117ff65e04344538aa

教師用AI是工作 學生用AI是學習嗎?

近日在社交媒體Threads看到一則中學生的帖文,大意是:「教師可以利用生成式人工智能備課、改功課,甚至加快完成工作,為何學生卻不可以用AI來完成作業?」這個問題引起不少回應,也反映了當前學校在人工智能使用上的一個普遍困惑。 這並非一個情緒化或無理的質疑。對不少學生而言,人工智能已經是日常學習與生活的一部分,而學校卻似乎在同一工具上,為教師與學生劃下不同界線。若只從表面理解,這確實容易被視為標準不一。然而,若從專業的角度來看,這個問題的核心,並不在於公平與否,而在於學習與工作的目的與責任是否相同。 作業是學習歷程的一部分 學生完成作業,本來就是學習歷程的一部分。作業的意義,並非展示一份完美成果,而是促使學生在過程中學會思考、分析、整理與表達。學生在學習階段犯錯、反覆修正,甚至感到困難,都是不可或缺的經驗。 從這個角度看,若學生在尚未掌握相關概念與思考方法之前,便直接依賴人工智能生成最終答案,問題並不單純在於「使用了AI」,而在於原本應由學生承擔的學習責任被工具取代了。即使作業看似完整,學習本身卻未必真正發生。 教師用AI屬專業實踐情境 相對而言,教師在備課、改功課、撰寫教學或行政文件時,所面對的是另一種情境。這些工作屬於專業實踐,其核心要求是準確、有效與可持續。 教師在這些工作中使用人工智能,並不是放棄專業判斷,而是在既有經驗與能力之上,運用工具提升效率與質素。這種使用方式,與學生在學習階段直接以AI產出成果,其目的與責任並不相同。 人工智能已逐步成為職場中的常用工具。因此,社會上常出現一個看似合理的反問:既然未來工作離不開AI,學校為何反而要限制學生使用? 真正能夠善用AI的人,往往是具備清晰思考與判斷能力的人。人工智能的輸出質素,很大程度取決於使用者是否知道自己在問什麼、要什麼,以及如何判斷結果是否合理。缺乏相關基礎的人,即使頻繁使用AI,也往往只能停留在表面,甚至在錯誤中不自知。 教育的責任︰為不同學習階段作判斷 當然,這並不意味學生在任何情況下使用人工智能都必然削弱學習。在合適的引導與設計下,AI亦可以成為促進反思、比較不同觀點,甚至檢視自身理解的工具。 從教育角度而言,學校在不同學習階段為學生設定工具使用的界線,並非技術選擇,而是一種教學判斷。這些界線未必一成不變,而是應隨着學生的能力、課程目標及學習需要逐步調整。 回到最初那位學生的提問,答案或許不在於「可不可以用AI」,而在於「在這個學習階段,使用AI是否削弱了應有的學習歷程」。教師與學生之間的分別,不在於身份,而在於角色與責任。 真正的教育,不是與科技對立,而是在科技迅速發展的環境中,仍然堅守一個核心原則:確保學生在成長過程中,建立足以駕馭科技的思考能力,而不是過早被科技取代學習本身。   撰文︰Ringo FaiLexGo...

11232

AI 與機械人的前沿發展

近年來,人工智慧(AI)的發展突飛猛進,從感知型人工智能(Perception AI)協助我們進行不同的自動化識別,再進化到生成式人工智能(Generative AI),為我們生成不同的文章、圖像、以至視頻,大幅度提升了我們的工作效率;而近期的發展焦點,則是代理型人工智慧(Agentic AI),讓 AI 不僅能執行預設任務,還能作出推理,動態調整策略、整合多模態數據,並與環境互動。至於下一個發展重點,很多業內人仕皆應為是實體人工智慧(Physical AI),把人工智能加入一個「身軀」(Embodiment),融入我們生活及工作各個環節,進一步改變人類生活與產業運作模式。   在探討下一個階段發展重點實體人工智慧(Physical AI)之前,讓我們回顧一下目前機械人的發展情況。 在探討下一個階段發展重點實體人工智慧(Physical AI)之前,讓我們回顧一下目前機械人的發展情況。 傳統機械人的發展及應用 傳統機器人自20世紀中葉問世以來,主要應用於工業自動化領域,如汽車製造、電子組裝等高精度、重複性任務。其核心特徵為固定程式邏輯與封閉式系統,雖具備高效穩定性,但缺乏環境適應能力。隨著技術演進,協作型機器人(Cobots)和感測器的引入,使其逐步擴展至醫療手術、物流倉儲等場景,但仍面臨彈性不足與高成本等限制。 近年來,傳統機器人正透過整合AI感知技術、大言語模型推理技術實現升級。自從2025年中國春節晚會宇樹(UNITREE)機械人亮相之後,AI 機械人的前景十分可觀,規模化生產局面正在加快形成。 具備感知的AI機械人 目前具備感智的AI機械人的應用已經十分廣泛,根據技術應用場景與功能,可分為以下幾類:  工業AI機械人(Industrial...

800_63264_19babf55c29549b2cb3a23e1993afb02

教AI素養 不等於只教prompting

當人工智能(AI)逐漸進入中小學教室後,一種常見的做法,是把AI素養等同於「會不會寫prompt」。只要學生能下指令、用AI產出看起來完整的內容,彷彿就完成了AI素養教育。 這樣的理解並非全然錯誤,但它反映了一種教學上的簡化:我們往往把最容易教、也最容易被看見的能力,誤認為是最關鍵的能力。 Prompting在AI教育中特別顯眼,是因為它對初學者極具吸引力。指令是可見、可模仿的,教師能示範,學生能立刻看到成果。這些快速而正向的回饋,讓學習者產生「我正在學會使用AI」的安全感。 相較之下,真正重要的判斷力卻是隱性的。它通常只在出錯、卡關,或後果浮現時才被注意到。於是,prompting很自然地成為教學重心。 從這個角度看,prompting確實有其價值。它像是學習初期的輔助輪,能幫助學生快速進入情境、降低挫折感。問題不在於要不要教prompt,而在於:我們是否不自覺地把輔助輪,當成了駕駛能力本身。 當prompting被視為AI素養的終點,而不是過渡階段,學習便容易停留在操作層,而尚未走向理解與反思。 Prompt 的角色正在改變 隨着生成式影像、影音與設計工具的普及,prompt正變得愈來愈自然。許多系統透過圖形化介面、拖拉操作,甚至主動追問與引導,或介面的圖像化來協助使用者釐清意圖。使用者不再需要精細設計語句,就能完成創作。當prompt被設計得「相對容易上手」,它在教學中的位置也值得重新思考。 真正的教學風險,並不在於學生是否能操作工具,而在於他們是否過早地接受AI給出的結果。生成式AI很少給出空白,而是提供一個語氣自信、結構完整的答案,令人誤以為「看起來正確」等於「值得相信」。 這裏有一個關鍵區分:• 輸出流暢度:快速產出合理、可交付內容的能力;• 知識判斷流暢度:理解這個答案屬於哪一種知識、依賴哪些前提,又可能在什麼情況下失效。 具備後者的學習者,會自然地問:這是推論、重述、猜測,還是檢索?如果錯了,最可能怎麼錯?哪一種錯誤的後果最嚴重? 這些問題,通常無法只靠「更好的prompt」來回答,卻正是AI素養開始被真正培養的地方。 使用 理解 判斷:AI...

Agentic AI

代理式人工智能(Agentic AI)的變革:重新定義人機互動的未來

隨著人工智能(AI)的快速發展,代理式人工智能(Agentic AI)成為了當前技術領域的一大熱點。這種類型的AI不僅僅是回答單一問題,而是能夠主動地幫助用戶分解問題、執行任務,並在多輪互動中提供更高效、更個性化的解決方案。本文將從概念、技術核心到日常應用,解析代理式人工智能帶來的變革。 什麼是代理式人工智能(Agentic AI)? 著名AI專家吳恩達(Andrew Ng)提出了人工智能領域的一個新趨勢 – 代理工作流程(Agentic Workflow)和人工智能代理(AI Agents)。 代理工作流程是一種創新的與大型語言模型(LLMs)的互動,以完成複雜任務並產生比傳統方法準確得多的輸出。與零樣本(Zero-shot)或少量示例(Few-shot)方法不同,代理工作流程採用更迭代(Iterative)和多步驟(Multi-step)的方法,將一個複雜任務分解為幾個小步驟。這個步驟可以令LLM模型能夠在每一步都能理解你的反饋,並進行自我反思,甚至乎與多個代理協作執行任務。 代理工作流程中使用的4種常見的人工智能代理設計模式:反思(Reflection),工具使用(Tool use),规划(Planning)和多智能体协作(Multi-agent collaboration),這種模式的特點是人工智能系統通過自我反饋和迭代改進來增強其能力。通過反思和分析其初始輸出,人工智能系統可以提高其結果的質量和準確性。 代理人工智能的主要特點 自主決策:這些人工智能代理分析實時數據,並根據預定目標執行決策。 適應性:它們根據變化的情況進行演變,從環境中學習,而無需持續的人類干預。 自我改進:代理人工智能代理隨著時間的推移不斷提高其性能,從過去的經驗中學習。 與傳統LLM「一問一答」交互方式不同,代理式人工智能會與用戶進行一場動態對話,不僅僅是執行單一的任務或回答單一的問題,而是像一個「代理人」一樣,主動幫助用戶分解疑問為多個子問題,甚至是元問題(meta-problems),然後通過研究、分析找到解決方案,並以總結性結果返回給用戶。例如,當用戶詢問「我想去巴黎旅遊,怎麼安排?」時,代理式AI不會只給出一個回覆,而是進一步詢問用戶的偏好,比如「你想什麼時候去巴黎?」「旅遊幾多日?」「預算範圍是多少?」最終通過多層次的交流,給出一個高度個性化的建議。 代理式人工智能常用的工作流...

Picture1

辨識真假AI: 挑戰與應對

隨著人工智慧技術的迅猛發展,特別是生成式人工智能(Generative AI)的突破,深偽技術(Deepfake)生成的虛假內容越來越精緻,真假難辨。這些新型的 AI 技術不僅能夠生成極為逼真的圖像和影片,還能通過圖靈測試,讓人難以分辨真偽,這對社會帶來了深遠的影響。 問題及案件頻發 深偽技術(Deepfake)的進步使得其在圖像、聲音、視頻方面被廣泛應用,造成的困擾日益凸顯,主要包括虛假信息散播、個人隱私侵犯、詐騙欺詐犯罪、政治操控、法律道德問題、信任危機、文化與社會影響等等問題。 其中有一些已經發生的案例特別突顯,引起各界關注: 假新聞傳播:社交媒體上假新聞的快速傳播可能導致公眾恐慌和社會不穩定,深偽技術(Deepfake)使得假新聞的製作變得更加容易。有報導指出,  香港人工智能深偽騙案在去年增加十倍。併隨著通訊技術的同步快速發展,假新聞的擴散迅速,不僅影響民眾的觀點和情緒,進一步影響公眾的認知,對社會信任和公共輿論造成負面影響,還可能造成社會動盪甚至對國家安全構成威脅。所以有媒體呼籲,全民應該提升媒體素養,齊齊打擊假內容。 金融欺詐:人臉辨識技術在金融領域的應用可能因Deepfake技術而受到威脅,偽造的人臉可能被用於身份盜竊或欺詐行為,對財務安全構成威脅。詐騙者發掘利用人臉識別技術,偽裝成他人进行金融诈骗。早前據香港警方指出,一家跨國公司的一名財務人員在視訊電話會議中被騙,詐騙者利用Deepfake 技術冒充該公司財務長,從而騙取這家企業2600 萬美元。 殺豬盤:這個是指透過社交平台或交友程式誘騙受害人投資股票、賭博的詐騙手法。這類事件伴隨著社交平台及網路轉賬的發展而出現,今年10月香港警方偵破的一個案件揭露出詐騙集團已經開始利用深偽技術進行詐騙。 假文憑面試:通過Deepfake技術偽造的文憑和證書可能變得更加難以識別,不僅會給招聘者在招聘過程中增加了辨認難度,甚至入學及入職流程都無法避免。而通過偽造的文憑進行升學及應聘,已經成為一種灰色產業。在香港發生的假學曆風暴,已經蔓延到澳門。 以上例子只是目前利用深偽技術進行詐騙的冰山一角。面對這些挑戰,如何有效地打擊假冒技術成為當前越變緊急的問題。以下我們將會探討一些辨認真假的方法。 辨認真假的方法及限制 對抗虛假信息的手段多種多樣,很多研究團隊及公司致力於開發「反Deepfake」的工具,化身AI 人工智能時代的「數位偵探」。目前已有多種辨識方法進行”打假”: 使用音位–視位不匹配的 Deepfake 檢測 這個檢測方法是由斯坦福大學和加州大學的聯合研究團隊開發,使用先進的人工智能算法來檢測 Deepfake 中視位(Viseme)和音位(Phoneme)之間是否一致。背後的依據是Deepfake 常犯的錯漏,Deepfake技術難將視頻嘴型動態與人物發音時口型完美匹配。該檢測方法將嘴巴的運動(發音嘴型)與口語單詞(音位)進行比較,並查找任何不匹配的地方。 如果檢測到不匹配,則會彈出強烈提示,該視頻可能為深度偽造。 使用「血流」進行實時視頻Deepfake檢測 另外一個利用生理技術特征進行反深偽技術的是英特爾公司聯合紐約州立大學發明的 FakeCatcher實時深度造假檢測器。其背後的原理是利用人類心臟泵血時人類靜脈顏色會改變的事實,將這些收集到的數據通過算法及深度學習技術,轉換成時空圖鑒,作為視頻檢測的線索,檢測視頻的真假。這個微妙的「血流」Deepfake檢測技術能在毫秒之間達到96% 的準確率。 使用「混合邊界」進行Deepfake 檢測 動態視頻的反Deepfake方法較為多樣化,靜態照片的檢測亦有工具。微軟推出的驗證工具可以檢測靜態照片或視頻,提供實時置信度得分,其人工智能技術主要檢測深度偽造照片的細微灰度元素,比如頭髮絲與物體的混合邊界,與現實的圖片的參數是否差異,從而得出結論。...