- 18:30 ─ 18:40 開場&講者介紹
- 18:40 ─ 19:10 鄧東波 <當災難發生時,AI 知道該怎麼救人嗎?– 從開放資料到知識圖譜的決策革命>
- 19:10 ─ 19:15 Q&A
- 19:15 ─ 19:45 莊國煜 <當群眾的眼睛遇上 AI 的大腦 — 災害資訊協調的實戰經驗>
- 19:45 ─ 19:50 Q&A
- 19:50 ─ 20:00 中場休息
- 20:00 ─ 21:20 開放自由討論
- 21:20 ─ 21:30 小結,閉幕
我們並非沒有資料,政府部門、醫療機構、環境感測器(IoT)與地理資訊系統各自累積了大量資料。然而,這些資料多半處於碎片化、缺乏語意、且難以互通的狀態。例如,AED(自動體外心臟去顫器)的位置已被收集,但其可及性、開放時間與周邊人口分布卻未被整合分析;PM2.5 的感測資料雖然充足,但往往無法與人口暴露風險或健康影響建立關聯;在災害發生時,各單位掌握的道路狀況、受災位置與資源分布,也難以形成統一的決策基礎。資料存在,但無法行動,成為過去最大的盲點。
隨著人工智慧的發展,我們看似擁有了更強大的分析工具,但AI本身並不能自動理解現實世界的結構與關係。若缺乏清晰的資料架構與語意關聯,AI只能停留在表層資訊處理,無法支援真正的決策。因此,下一階段的關鍵,不只是更多資料或更強模型,而是如何讓資料具有語意、結構與可推理能力。
在災害現場,民眾們時常自發透過 LINE、WhatsApp、SMS 等在地通訊管道進行第一線回報,若能妥善運用災害本體論(Disaster Ontology)將上述情報進行語意標準化,並結合 AI 即時分類與摘要,將能協助決策者將能在災害發生的關鍵時刻,真正「看懂」現場正在發生什麼事 。
從斐濟的海嘯警報、富士山的火山疏散,到花蓮光復的社區重建,這些開放資料的實戰部署都在回答同一個問題:資料如何在最需要的時刻,變成拯救生命的行動指引?



