Opis stanowiska
Osoba zatrudniona na tym stanowisku będzie odpowiedzialna za prowadzenie badań w obszarze weryfikacji, testowania i eksploracji modeli sztucznej inteligencji z wykorzystaniem danych syntetycznych
oraz technik generatywnej wyjaśnialności (GenXAI). Kluczowe odpowiedzialności strategiczne:
– proaktywne identyfikowanie i rozwijanie nowych kierunków badań w obszarze weryfikacji, testowania i wyjaśnialności generatywnej
– współtworzenie strategii badawczej dotyczącej wykorzystania
danych syntetycznych do diagnozowania ograniczeń, uprzedzeń i błędów modeli AI
– budowanie i utrzymywanie partnerstw z instytucjami akademickimi, przemysłem i regulatorami, w zgodzie
z międzynarodowymi standardami
– mentorowanie młodszych badaczy, wspieranie ich w planowaniu eksperymentów, analizie wyników i rozwoju kariery, a także wyznaczanie standardów rekrutacyjnych
– reprezentowanie zespołu w kontaktach z instytucjami finansującymi badania oraz aktywny udział w przygotowywaniu wniosków projektowych.
Nasze wymagania
- stopień naukowy doktora (lub równoważne doświadczenie badawcze) w dziedzinie informatyki, sztucznej inteligencji, uczenia maszynowego lub pokrewnej; Doświadczenie oczekiwane od osoby zatrudnionej na stanowisku profesora uczeln
- udokumentowane doświadczenie w pracy badawczej nad modelami AI, w szczególności w zakresie explainable AI, generowania danych syntetycznych lub testowania modeli
- umiejętność prowadzenia niezależnych badań oraz pracy zespołowej, w tym gotowość do współpracy interdyscyplinarnej i wspierania młodszych badaczy.
Zakres obowiązków
- projektowanie i implementacja metod generowania danych syntetycznych ukierunkowanych na diagnozowanie ograniczeń, uprzedzeń i błędów modeli AI;
- rozwijanie i testowanie strategii eksploracji przestrzeni decyzyjnej modeli za pomocą kontrolowanego generowania danych (m.in. z użyciem LLM, diffusion models, czy procedur adversarial probing);
- opracowywanie eksperymentów mających na celu ocenę wiarygodności, odporności i transparentności systemów AI w różnych kontekstach zastosowań;
- dokumentowanie wyników badań w formie publikacji naukowych i raportów wewnętrznych;
- współpraca z zespołami pracującymi nad aspektami regulacyjnymi, inżynierskimi oraz społecznymi systemów AI;
- udział w przygotowaniu i realizacji projektów badawczych finansowanych ze źródeł krajowych i międzynarodowych (np. NCN, Horizon Europe, ESA ).
Dokumenty wymagane do rekrutacji
- Według załącznika
Załączniki
Dodatkowe informacje dla kandydata
Więcej o projekcie można przeczytać na stronie projektu http://credibleai.eu/