移到主要內容

【演講公告】2026.05.12 Hiding a Swarm's Leader from RL Agent and Human. AI Safety in the Information and Physical Spaces

2026.05.12



演講主題:

Hiding a Swarm's Leader from RL Agent and Human

AI Safety in the Information and Physical Spaces

 

講者:

Prof. Michael Lewis 美國匹茲堡大學(University of Pittsburgh)資訊學院教授

Prof. Katia Sycara 美國卡內基美隆大學(CMU)機器人研究所資深研究教授,現任機器人研究所副主任,並擔任可信任人機協作研究中心主任

 

時間: 2026512 ()  15:00-17:00

地點: 管理大樓11-AI講堂

直播連結: https://reurl.cc/xW6OmZ或 掃描海報 QR code

 

講者簡介:

Michael Lewis 教授為美國匹茲堡大學(University of Pittsburgh)資訊學院教授,專長於人機互動、人機協作與群體機器人(swarm robotics)研究,特別關注人類如何與多機器人系統及AI協同運作。其研究涵蓋人因工程、強化學習、人機信任與決策支援等領域,長期獲美國國防高等研究計畫署(DARPA)與多個政府機構支持,為人機協作與智慧系統領域的重要學者。

 

Katia Sycara 教授為美國卡內基美隆大學(CMU)機器人研究所資深研究教授,現任機器人研究所副主任,並擔任可信任人機協作研究中心主任。她為人工智慧、多代理系統與人機協作領域的國際權威學者,為 AAAI IEEE Fellow,並曾獲多項國際學術終身成就獎。其學術影響力深遠,發表超過700篇論文,引用數逾5萬次,致力於發展可信任、自主且可解釋的AI系統。

 

演講大綱:

Hiding a Swarm's Leader from RL Agent and Human

本演講探討在機器人群體系統中保護領導者的策略。雖然以領導者為核心的控制方式可提升群體協作效率,但同時也增加系統遭受攻擊的風險。本研究透過圖神經網路(GNN)訓練群體追隨領導者,並利用對抗式模型辨識領導者位置。研究結果顯示,在一般情境下,AI模型在領導者辨識上優於人類;然而當群體採用隱匿策略時,人類的辨識能力反而優於AI。即使在對抗模型持續學習及高視覺干擾環境下,人類仍展現出穩定且較佳的判斷能力。此結果突顯人類與人工智慧在複雜多代理系統中的關鍵差異。

 

AI Safety in the Information and Physical Spaces

本演講探討基礎多模態模型(Foundational Multi-Modal Models)的潛在安全漏洞,重點分析透過「意圖欺騙(intention deception)」進行模型越獄(jailbreaking)的風險,以及在何種條件下多模態模型更容易受到對抗性攻擊並洩露敏感或危險資訊。此外,將提出相應的安全防護策略,並進一步介紹「情境安全(contextual safety)」在真實世界應用中所面臨的挑戰。

 

※本活動無需報名