Profesor uczelni stanowisko badawcze

Centrum Wiarygodnej Sztucznej Inteligencji
Politechnika Warszawska
  • Miejsce: Warszawa
  • Forma zatrudnienia: część etatu, umowa o pracę
  • Dziedzina nauk ścisłych i przyrodniczych
  • nauki fizyczne

Opis stanowiska

Osoba zatrudniona na tym stanowisku będzie odpowiedzialna za prowadzenie badań nad zachowaniem dużych modeli językowych (LLM), ze szczególnym uwzględnieniem ich zdolności perswazyjnych, potencjału do generowania dezinformacji oraz reprodukowania toksycznych wzorców językowych. Badania będą miały charakter analityczno-eksperymentalny, a ich celem będzie rozwój narzędzi do wykrywania i ograniczania niepożądanych zachowań modeli AI w kontekstach społecznych i komunikacyjnych.
Do głównych zadań będzie należeć:
o projektowanie i realizacja eksperymentów testujących modele LLM pod kątem treści perswazyjnych, manipulacyjnych lub szkodliwych
o opracowywanie wskaźników i procedur oceny toksyczności, stronniczości, tendencyjności poznawczej
o rozwijanie metod diagnozowania i kontrolowania zachowań modeli
o analiza danych tekstowych generowanych przez modele w różnych językach i kontekstach kulturowych
o dokumentowanie wyników badań w formie publikacji naukowych, benchmarków i raportów ewaluac.

Nasze wymagania

  • stopień naukowy doktora (lub równoważne doświadczenie badawcze) w dziedzinie psychologii, matematyki, fizyki, informatyki, sztucznej inteligencji, uczenia maszynowego lub pokrewnej
  • doświadczenie oczekiwane od osoby zatrudnionej na stanowisku profesora uczelni
  • udokumentowane doświadczenie w pracy badawczej nad modelami AI
  • umiejętność prowadzenia niezależnych badań oraz pracy zespołowej, w tym gotowość do współpracy interdyscyplinarnej i wspierania młodszych badaczy.

Zakres obowiązków

  • projektowanie i realizacja eksperymentów testujących modele LLM pod kątem generowania treści perswazyjnych, manipulacyjnych lub szkodliwych
  • opracowywanie wskaźników i procedur oceny toksyczności, stronniczości, tendencyjności poznawczej oraz zgodności z faktami
  • rozwijanie metod diagnozowania i kontrolowania zachowań modeli (np. przez analizę promptów, fine-tuning, metody alignmentu lub filtrowanie danych)
  • analiza danych tekstowych generowanych przez modele w różnych językach i kontekstach kulturowych
  • dokumentowanie wyników badań w formie publikacji naukowych, benchmarków i raportów ewaluacyjnych
  • współpraca z zespołami zajmującymi się aspektami etycznymi, społecznymi i regulacyjnymi rozwoju AI
  • udział w przygotowaniu i realizacji projektów badawczych finansowanych ze źródeł krajowych i międzynarodowych (np. NCN, Horizon Europe, NASK, UNESCO).

Dokumenty wymagane do rekrutacji

  • wg. załącznika

Załączniki