Tier 1 — Desktop Assessment (OSINT)

O metodologii HRI Score™

Human Risk Indicator Score in AI — niezależny wskaźnik mierzący, ile realnej ludzkiej autonomii decyzyjnej pozostaje w systemach AI wdrażanych przez firmy.

Czym jest HRI Score™

HRI Score™ (Human Risk Indicator Score in AI) to wskaźnik governance posture firmy w obszarze sztucznej inteligencji. Mierzy, w jakim stopniu systemy AI wdrożone przez firmę zachowują realną ludzką autonomię decyzyjną.

Skala: 0–100 punktów

0–20Niskie ryzyko
21–40Umiarkowane
41–60Podwyższone
61–80Wysokie
81–100Krytyczne

Im wyższy wynik → tym wyższe ryzyko behawioralne. Wynik Tier 1 (OSINT) ma margines błędu ±15–20 punktów.

HRI Score™ NIE jest opinią prawną, audytem finansowym ani zarzutem naruszenia prawa. To wskaźnik badawczy oparty na publicznie dostępnych danych.

Po co powstał

EU AI Act (rozporządzenie 2024/1689) wchodzi w życie etapami od 2025 roku. Wprowadza obowiązki dla firm wdrażających systemy AI wysokiego ryzyka — ale brakuje niezależnych, publicznych narzędzi do oceny, jak firmy w praktyce zarządzają ryzykiem behawioralnym swoich systemów AI.

Transparencja

Społeczeństwo ma prawo wiedzieć, jak duże firmy wykorzystują AI i czy robią to odpowiedzialnie.

Accountability

Ranking tworzy presję na firmy, by publicznie komunikowały swoje podejście do AI governance.

Edukacja

Metodologia jest publiczna. Każdy może ją zweryfikować, zakwestionować lub wykorzystać do własnych analiz.

HRI Score™ stanowi odpowiedź na lukę: niezależna, publiczna, metodologicznie przejrzysta ocena poziomu ryzyka behawioralnego w systemach AI dużych firm.

Kto za tym stoi

Fundacja Promocji Badań nad Węchem i AI

Wydawca rankingu

Organizacja non-profit. Cel statutowy: promocja badań nad interakcją człowiek-AI. Fundacja nie świadczy usług komercyjnych ocenianym firmom w zakresie objętym rankingiem.

ULHUB sp. z o.o.

Usługi komercyjne

Odrębny podmiot komercyjny. Świadczy usługi audytowe Tier 2 i Tier 3 (pogłębione, wymagające bezpośredniej współpracy z firmą). Ranking Tier 1 jest niezależny od działalności ULHUB.

Stefan Podedworny

Autor metodologii HRI Score™

Twórca frameworku HRI Score™, założyciel Fundacji i ULHUB. Ponad 30 lat doświadczenia w sektorze B2B/IT/SaaS. Doktorant SGH (ekonomia behawioralna), MBA (IFG Paris), certyfikowany CAIO i AIGP — łączący kompetencje strategiczne i techniczne w obszarze AI. Autor książki „Cicha Manipulacja", w której po raz pierwszy opisał framework HRAIS.

www.podedworny.com

Separacja podmiotów (Fundacja vs. ULHUB) gwarantuje brak konfliktu interesów. Ranking jest publikacją badawczą, nie narzędziem sprzedażowym.

Jak powstaje ocena

Ranking HRI Score™ Tier 1 opiera się wyłącznie na publicznie dostępnych danych (OSINT — Open Source Intelligence). Agent nie loguje się do systemów firm, nie testuje ich AI, nie wchodzi za paywall.

Trzy poziomy oceny

Tier 1Desktop Assessment

OSINT — tylko publiczne dane. Margines ±15–20 pkt. To jest obecny ranking.

Tier 2Enhanced Assessment

Bezpośrednie zapytania do firmy, dokumentacja wewnętrzna, wywiady. Margines ±5–10 pkt.

Tier 3Full Audit

Pełny audyt techniczny, behavioral pen testing, red teaming. Maksymalna precyzja.

9 źródeł OSINT sprawdzanych dla każdej firmy

1

Raporty ESG / roczne

Wzmianki o AI, governance, systemach

2

Polityki prywatności

Profilowanie, automatyczne decyzje

3

Ogłoszenia o pracę

AI engineers vs. AI compliance officers

4

Komunikaty prasowe

Deklaracje o wdrożeniach AI

5

Filingi regulacyjne

Decyzje KNF/URE/UOKiK dot. AI

6

Publiczne interfejsy AI

Chatboty, rekomendacje, lojalnościówki

7

LinkedIn (publiczne)

Rozmiar zespołów AI, struktura

8

Patenty AI

UPRP/EPO/Google Patents

9

Skargi i incydenty

Reklamacje, wycieki, media

Pipeline oceny

Zbieranie OSINT

Web search z 9 źródeł

Analiza LLM

Scoring per wymiar

Korekty

Kontekstowe ±10 pkt

Zapis

Baza danych + raport

Walidacja

Ręczna weryfikacja

Metodologia — 7 wymiarów

Każda firma jest oceniana w 7 wymiarach, z których każdy ma przypisaną wagę odpowiadającą jego znaczeniu w kontekście EU AI Act. Formuła:

HRI Score = (W1×0.25) + (W2×0.20) + (W3×0.20) + (W4×0.15) + (W5×0.08) + (W6×0.07) + (W7×0.05)

W1. Manipulacja behawioralna

25%Art. 5

Dark patterns, exploatacja podatności, sztuczna pilność, dynamic pricing, nudging. 20 wskaźników w 4 grupach.

W2. Ryzyko poznawcze

20%Art. 9

10 kategorii biasów poznawczych aktywowanych przez AI: automation bias, anchoring, framing effect i inne.

W3. Nadzór ludzki

20%Art. 14

Czy human oversight jest realny czy pozorny. Override rate, czas na decyzję, kompetencje, accountability.

W4. Bias i dyskryminacja

15%Art. 10

Ryzyko dyskryminacji w danych i algorytmach. Fairness metrics, grievance mechanisms, proxy checks.

W5. Przejrzystość

8%Art. 13

Czy użytkownik wie, że interaguje z AI? Czy rozumie decyzję? Czy zna ograniczenia systemu?

W6. Odporność na manipulację

7%Art. 15.4

Behavioral penetration testing, odporność na adversarial inputs, monitoring anomalii.

W7. Informowanie i prawa

5%Art. 26

AI literacy, FRIA, konsultacje ze związkami zawodowymi, prawo odmowy interakcji z AI.

Korekty kontekstowe (±10 pkt max)

Zwiększające score (↑ ryzyko):

  • >1M użytkowników: +5
  • >10M użytkowników: +10
  • Infrastruktura krytyczna: +5
  • Decyzje o prawach fundamentalnych: +5

Zmniejszające score (↓ ryzyko):

  • AI governance framework: -5
  • AI transparency report: -5
  • ISO 42001 lub równoważny: -5

Bezpieczeństwo, etyka i ochrona danych

Czego agent NIE robi

Nie testuje systemów AI wymagających logowania
Nie robi red-teamingu ani prompt injection
Nie wchodzi za paywall ani do treści chronionych
Nie zbiera danych osobowych użytkowników firm
Nie scrapuje treści chronionych prawem autorskim
Nie prowadzi inżynierii społecznej

Ochrona danych osobowych (RODO)

Agent ocenia firmę jako organizację, nie konkretne osoby. W raporcie nie pojawiają się imiona i nazwiska pracowników.

Dozwolone

Firma ma zespół 15 Data Scientists

Firma posiada stanowisko Head of AI Ethics

Zabronione

Listowanie konkretnych osób z imienia i nazwiska

Zbieranie danych o życiu prywatnym pracowników

Wyjątek: osoby publiczne w kontekście funkcji (np. publiczne wypowiedzi CEO o strategii AI firmy). Ale bez danych prywatnych.

Oznaczanie pewności dowodów

Każde stwierdzenie w uzasadnieniu wymiaru jest oznaczone poziomem pewności:

[FAKT]

Potwierdzone publicznie — z URL lub konkretnym dokumentem.

[HIPOTEZA]

Prawdopodobne na bazie poszlak, wymaga weryfikacji w Tier 2/3.

[BRAK DANYCH]

Brak publicznych informacji. Domyślny score: 50 (brak transparencji = podwyższone ryzyko).

Język raportu — safeguardy

Dozwolone sformułowania

  • wskazuje na podwyższone ryzyko
  • budzi obawy w kontekście Art. 5
  • wymaga weryfikacji w ramach Tier 2/3
  • potencjalnie problematyczne

Zakazane sformułowania

  • firma łamie / narusza prawo
  • firma oszukuje klientów
  • firma jest winna
  • nielegalne działania

Pre-publication workflow

Każda ocena przechodzi przez poniższy proces zanim trafi do publicznego rankingu:

Draft

Ocena wygenerowana

Pre-publication

30 dni na odpowiedź firmy

Published

Ręczna akceptacja operatora

Agent nie publikuje automatycznie. Każda publikacja wymaga ręcznej akceptacji przez operatora. Firma ma 30 dni na odniesienie się do wyników.

Najczęstsze pytania

Masz pytania? Chcesz zgłosić firmę do oceny?

Skontaktuj się z nami. Jeśli reprezentujesz ocenianą firmę i chcesz odnieść się do wyników — masz do tego pełne prawo.