O metodologii HRI Score™
Human Risk Indicator Score in AI — niezależny wskaźnik mierzący, ile realnej ludzkiej autonomii decyzyjnej pozostaje w systemach AI wdrażanych przez firmy.
Czym jest HRI Score™
HRI Score™ (Human Risk Indicator Score in AI) to wskaźnik governance posture firmy w obszarze sztucznej inteligencji. Mierzy, w jakim stopniu systemy AI wdrożone przez firmę zachowują realną ludzką autonomię decyzyjną.
Skala: 0–100 punktów
Im wyższy wynik → tym wyższe ryzyko behawioralne. Wynik Tier 1 (OSINT) ma margines błędu ±15–20 punktów.
HRI Score™ NIE jest opinią prawną, audytem finansowym ani zarzutem naruszenia prawa. To wskaźnik badawczy oparty na publicznie dostępnych danych.
Po co powstał
EU AI Act (rozporządzenie 2024/1689) wchodzi w życie etapami od 2025 roku. Wprowadza obowiązki dla firm wdrażających systemy AI wysokiego ryzyka — ale brakuje niezależnych, publicznych narzędzi do oceny, jak firmy w praktyce zarządzają ryzykiem behawioralnym swoich systemów AI.
Transparencja
Społeczeństwo ma prawo wiedzieć, jak duże firmy wykorzystują AI i czy robią to odpowiedzialnie.
Accountability
Ranking tworzy presję na firmy, by publicznie komunikowały swoje podejście do AI governance.
Edukacja
Metodologia jest publiczna. Każdy może ją zweryfikować, zakwestionować lub wykorzystać do własnych analiz.
HRI Score™ stanowi odpowiedź na lukę: niezależna, publiczna, metodologicznie przejrzysta ocena poziomu ryzyka behawioralnego w systemach AI dużych firm.
Kto za tym stoi
Fundacja Promocji Badań nad Węchem i AI
Wydawca rankingu
Organizacja non-profit. Cel statutowy: promocja badań nad interakcją człowiek-AI. Fundacja nie świadczy usług komercyjnych ocenianym firmom w zakresie objętym rankingiem.
ULHUB sp. z o.o.
Usługi komercyjne
Odrębny podmiot komercyjny. Świadczy usługi audytowe Tier 2 i Tier 3 (pogłębione, wymagające bezpośredniej współpracy z firmą). Ranking Tier 1 jest niezależny od działalności ULHUB.
Stefan Podedworny
Autor metodologii HRI Score™
Twórca frameworku HRI Score™, założyciel Fundacji i ULHUB. Ponad 30 lat doświadczenia w sektorze B2B/IT/SaaS. Doktorant SGH (ekonomia behawioralna), MBA (IFG Paris), certyfikowany CAIO i AIGP — łączący kompetencje strategiczne i techniczne w obszarze AI. Autor książki „Cicha Manipulacja", w której po raz pierwszy opisał framework HRAIS.
www.podedworny.comSeparacja podmiotów (Fundacja vs. ULHUB) gwarantuje brak konfliktu interesów. Ranking jest publikacją badawczą, nie narzędziem sprzedażowym.
Jak powstaje ocena
Ranking HRI Score™ Tier 1 opiera się wyłącznie na publicznie dostępnych danych (OSINT — Open Source Intelligence). Agent nie loguje się do systemów firm, nie testuje ich AI, nie wchodzi za paywall.
Trzy poziomy oceny
OSINT — tylko publiczne dane. Margines ±15–20 pkt. To jest obecny ranking.
Bezpośrednie zapytania do firmy, dokumentacja wewnętrzna, wywiady. Margines ±5–10 pkt.
Pełny audyt techniczny, behavioral pen testing, red teaming. Maksymalna precyzja.
9 źródeł OSINT sprawdzanych dla każdej firmy
Raporty ESG / roczne
Wzmianki o AI, governance, systemach
Polityki prywatności
Profilowanie, automatyczne decyzje
Ogłoszenia o pracę
AI engineers vs. AI compliance officers
Komunikaty prasowe
Deklaracje o wdrożeniach AI
Filingi regulacyjne
Decyzje KNF/URE/UOKiK dot. AI
Publiczne interfejsy AI
Chatboty, rekomendacje, lojalnościówki
LinkedIn (publiczne)
Rozmiar zespołów AI, struktura
Patenty AI
UPRP/EPO/Google Patents
Skargi i incydenty
Reklamacje, wycieki, media
Pipeline oceny
Zbieranie OSINT
Web search z 9 źródeł
Analiza LLM
Scoring per wymiar
Korekty
Kontekstowe ±10 pkt
Zapis
Baza danych + raport
Walidacja
Ręczna weryfikacja
Metodologia — 7 wymiarów
Każda firma jest oceniana w 7 wymiarach, z których każdy ma przypisaną wagę odpowiadającą jego znaczeniu w kontekście EU AI Act. Formuła:
W1. Manipulacja behawioralna
Dark patterns, exploatacja podatności, sztuczna pilność, dynamic pricing, nudging. 20 wskaźników w 4 grupach.
W2. Ryzyko poznawcze
10 kategorii biasów poznawczych aktywowanych przez AI: automation bias, anchoring, framing effect i inne.
W3. Nadzór ludzki
Czy human oversight jest realny czy pozorny. Override rate, czas na decyzję, kompetencje, accountability.
W4. Bias i dyskryminacja
Ryzyko dyskryminacji w danych i algorytmach. Fairness metrics, grievance mechanisms, proxy checks.
W5. Przejrzystość
Czy użytkownik wie, że interaguje z AI? Czy rozumie decyzję? Czy zna ograniczenia systemu?
W6. Odporność na manipulację
Behavioral penetration testing, odporność na adversarial inputs, monitoring anomalii.
W7. Informowanie i prawa
AI literacy, FRIA, konsultacje ze związkami zawodowymi, prawo odmowy interakcji z AI.
Korekty kontekstowe (±10 pkt max)
Zwiększające score (↑ ryzyko):
- • >1M użytkowników: +5
- • >10M użytkowników: +10
- • Infrastruktura krytyczna: +5
- • Decyzje o prawach fundamentalnych: +5
Zmniejszające score (↓ ryzyko):
- • AI governance framework: -5
- • AI transparency report: -5
- • ISO 42001 lub równoważny: -5
Bezpieczeństwo, etyka i ochrona danych
Czego agent NIE robi
Ochrona danych osobowych (RODO)
Agent ocenia firmę jako organizację, nie konkretne osoby. W raporcie nie pojawiają się imiona i nazwiska pracowników.
✅ Dozwolone
„Firma ma zespół 15 Data Scientists”
„Firma posiada stanowisko Head of AI Ethics”
❌ Zabronione
Listowanie konkretnych osób z imienia i nazwiska
Zbieranie danych o życiu prywatnym pracowników
Wyjątek: osoby publiczne w kontekście funkcji (np. publiczne wypowiedzi CEO o strategii AI firmy). Ale bez danych prywatnych.
Oznaczanie pewności dowodów
Każde stwierdzenie w uzasadnieniu wymiaru jest oznaczone poziomem pewności:
Potwierdzone publicznie — z URL lub konkretnym dokumentem.
Prawdopodobne na bazie poszlak, wymaga weryfikacji w Tier 2/3.
Brak publicznych informacji. Domyślny score: 50 (brak transparencji = podwyższone ryzyko).
Język raportu — safeguardy
✅ Dozwolone sformułowania
- • „wskazuje na podwyższone ryzyko”
- • „budzi obawy w kontekście Art. 5”
- • „wymaga weryfikacji w ramach Tier 2/3”
- • „potencjalnie problematyczne”
❌ Zakazane sformułowania
- • „firma łamie / narusza prawo”
- • „firma oszukuje klientów”
- • „firma jest winna”
- • „nielegalne działania”
Pre-publication workflow
Każda ocena przechodzi przez poniższy proces zanim trafi do publicznego rankingu:
Draft
Ocena wygenerowana
Pre-publication
30 dni na odpowiedź firmy
Published
Ręczna akceptacja operatora
Agent nie publikuje automatycznie. Każda publikacja wymaga ręcznej akceptacji przez operatora. Firma ma 30 dni na odniesienie się do wyników.
Podstawy prawne
Podstawa publikacji
- • Art. 73 Konstytucji RP — wolność badań naukowych i ogłaszania ich wyników
- • Art. 54 Konstytucji RP — wolność wyrażania poglądów
- • Realizacja celów statutowych Fundacji
Prawo do odpowiedzi
- • 30-dniowy pre-publication notice
- • Odpowiedź firmy publikowana obok karty oceny
- • Ewentualna korekta score po odpowiedzi
- • Kontakt: [email protected]
Ramy regulacyjne
- • EU AI Act (Rozporządzenie 2024/1689) — podstawa metodologii scoringu per wymiar
- • Annex III EU AI Act — identyfikacja systemów AI wysokiego ryzyka w ocenianych firmach
- • RODO — zasady przetwarzania danych w trakcie OSINT
- • ISO 42001 — punkt odniesienia dla AI governance frameworks
Najczęstsze pytania
Masz pytania? Chcesz zgłosić firmę do oceny?
Skontaktuj się z nami. Jeśli reprezentujesz ocenianą firmę i chcesz odnieść się do wyników — masz do tego pełne prawo.