Profesor uczelni stanowisko badawcze

Centrum Wiarygodnej Sztucznej Inteligencji
Politechnika Warszawska
  • Miejsce: Warszawa
  • Forma zatrudnienia: umowa o pracę, pełny etat
  • Dziedzina nauk inżynieryjno-technicznych
  • informatyka techniczna i telekomunikacja

Opis stanowiska

Osoba zatrudniona na tym stanowisku będzie odpowiedzialna za prowadzenie badań w obszarze weryfikacji, testowania i eksploracji modeli sztucznej inteligencji z wykorzystaniem danych syntetycznych
oraz technik generatywnej wyjaśnialności (GenXAI). Kluczowe odpowiedzialności strategiczne:
– proaktywne identyfikowanie i rozwijanie nowych kierunków badań w obszarze weryfikacji, testowania i wyjaśnialności generatywnej
– współtworzenie strategii badawczej dotyczącej wykorzystania
danych syntetycznych do diagnozowania ograniczeń, uprzedzeń i błędów modeli AI
– budowanie i utrzymywanie partnerstw z instytucjami akademickimi, przemysłem i regulatorami, w zgodzie
z międzynarodowymi standardami
– mentorowanie młodszych badaczy, wspieranie ich w planowaniu eksperymentów, analizie wyników i rozwoju kariery, a także wyznaczanie standardów rekrutacyjnych
– reprezentowanie zespołu w kontaktach z instytucjami finansującymi badania oraz aktywny udział w przygotowywaniu wniosków projektowych.

Nasze wymagania

  • stopień naukowy doktora (lub równoważne doświadczenie badawcze) w dziedzinie informatyki, sztucznej inteligencji, uczenia maszynowego lub pokrewnej; Doświadczenie oczekiwane od osoby zatrudnionej na stanowisku profesora uczeln
  • udokumentowane doświadczenie w pracy badawczej nad modelami AI, w szczególności w zakresie explainable AI, generowania danych syntetycznych lub testowania modeli
  • umiejętność prowadzenia niezależnych badań oraz pracy zespołowej, w tym gotowość do współpracy interdyscyplinarnej i wspierania młodszych badaczy.

Zakres obowiązków

  • projektowanie i implementacja metod generowania danych syntetycznych ukierunkowanych na diagnozowanie ograniczeń, uprzedzeń i błędów modeli AI;
  • rozwijanie i testowanie strategii eksploracji przestrzeni decyzyjnej modeli za pomocą kontrolowanego generowania danych (m.in. z użyciem LLM, diffusion models, czy procedur adversarial probing);
  • opracowywanie eksperymentów mających na celu ocenę wiarygodności, odporności i transparentności systemów AI w różnych kontekstach zastosowań;
  • dokumentowanie wyników badań w formie publikacji naukowych i raportów wewnętrznych;
  • współpraca z zespołami pracującymi nad aspektami regulacyjnymi, inżynierskimi oraz społecznymi systemów AI;
  • udział w przygotowaniu i realizacji projektów badawczych finansowanych ze źródeł krajowych i międzynarodowych (np. NCN, Horizon Europe, ESA ).

Dokumenty wymagane do rekrutacji

  • Według załącznika

Załączniki