Data wydarzenia:

AI is broken and we need Generative XAI to fix it


Data:
3 czerwca 2025, godz. 10:30

Prelegent: prof. dr hab. inż. Przemysław Biecek

Tytuł: AI is broken and we need Generative XAI to fix it

Abstract
Rewolucja związana z umasowaniem gromadzenia i przetwarzania danych (Big Data) zaowocowała popularyzacją nauki o danych (Data Science). Dzisiaj obserwujemy kolejną falę, związaną z umasowieniem dużych modeli (Big Models), która zwiększa znaczenie nauki o modelach (Model Science).
Istotnym nurtem w tej nauce jest tematyka Wyjaśnialnej Sztucznej Inteligencji (XAI).
Dlaczego wyjaśniamy modele ML? Wiele technik XAI odpowiada na potrzeby użytkowników końcowych. Zwiększają one zaufanie i pewność w korzystaniu z narzędzi AI oraz umożliwiają efektywną interakcję człowieka z modelem. Podczas tego referatu skupię się jednak na możliwościach, jakie XAI otwiera dla twórców modeli AI. Przedstawię przykłady sytuacji, w których techniki XAI pomagają wykrywać słabości modeli, naprawiać błędy, a nawet wydobywać z nich nową wiedzę. Wprowadzę perspektywę RED-XAI i zachęcę uczestników do współtworzenia nowych metod w tym obszarze. Okazuje się, że AI generatywna (w szczególności autoenkoder dyfuzyjny) otwiera szerokie możliwości tworzenia takich wyjaśnień.
Referat oparty o prace:
https://arxiv.org/abs/2402.13914https://arxiv.org/abs/2404.12488https://arxiv.org/abs/2410.12591

Notka biograficzna
Przemysław Biecek tytuł magistra uzyskał w inżynierii oprogramowania, doktora w statystyce matematycznej a profesora w informatyce. Dzisiaj wykorzystuje te doświadczenia pracując nad analizą modeli AI, w szczególności opartą o wyjaśnialną sztuczną inteligencję (XAI).
Prowadził badania zarówno w działach R&D dużych firm technologicznych (Principal Data Scientist w Samsungu, Senior Researcher w IBM, Netezza), jak i w środowisku akademickim (Uniwersytet Warszawski, Politechnika Warszawska). Od 8 lat prowadzi grupę badawczą mi2.ai, rozpiętą pomiędzy matematyką a informatyką, skupioną na temacie analizy modeli AI.
Jego osobistą misją jest wspieranie ludzkich możliwości poprzez zapewnienie dostępu do prognoz opartych na danych i wiedzy. Realizuje ją poprzez rozwój metod i narzędzi dla odpowiedzialnego uczenia maszynowego, wiarygodnej sztucznej inteligencji oraz niezawodnej inżynierii oprogramowania.
Specjalizuje się w analizie modeli, zarówno teoretycznej jak i stosowanej w obszarze ochrony zdrowia (analiza obrazów tomografii komputerowej w poszukiwaniu nowotworów), jak i zastosowań kosmicznych (analiza obrazów hiperspektralnych).