AI stała się dziś motorem napędowym biznesu: sprzedaży, marketingu, fundraisingu i narracji o „innowacyjności”. W praktyce oznacza to, że słowo „AI” bywa używane jak dopalacz: podnosi wycenę, ułatwia wejście na shortlisty dostawców, skraca rozmowy z klientem („bo to przecież inteligentne”), a czasem ma po prostu przykryć brak realnej przewagi produktu. W tym właśnie miejscu pojawia się AI washing – strategia komunikacyjna (a bywa, że i biznesowa), polegająca na wyolbrzymianiu lub sugerowaniu wykorzystania sztucznej inteligencji tam, gdzie jej nie ma, jest marginalna albo nie robi tego, co obiecuje marketing.
Pojęcie AI washing bywa opisywane jako odpowiednik greenwashingu: klient ma uwierzyć, że kupuje technologię „nowej generacji”, podczas gdy w rzeczywistości dostaje klasyczną automatyzację, reguły IF/THEN, prostą analitykę, ręczne procesy „w tle”, albo model, który w ogóle nie ma parametrów i ograniczeń deklarowanych w materiałach sprzedażowych. AI Now Institute opisuje ten termin w swoich badaniach jako zjawisko „marketingowego doprawiania AI”.
Dlaczego jako radczyni prawna i specjalistka od AI compliance uważam, że to praktyka wyjątkowo ryzykowna? Bo AI washing rzadko kończy się „tylko” na wizerunku. W realnym świecie dotyka trzech twardych obszarów: odpowiedzialności za przekaz rynkowy, odpowiedzialności kontraktowej oraz zgodności regulacyjnej (w tym – coraz częściej – wprost w obszarze AI).
AI washing to nie „spryt marketingowy”. To ryzyko prawne i biznesowe
1) Reklama wprowadzająca w błąd i nieuczciwe praktyki rynkowe
Jeżeli obiecujesz „AI-powered”, „autonomiczną sztuczną inteligencję”, „system, który sam podejmuje decyzje”, „bezbłędną detekcję” albo „automatyczną zgodność” to są konkretne twierdzenia o cechach produktu. Prawo nie wymaga, by klient był ekspertem od ML, żeby uznać przekaz za wprowadzający w błąd. Wymaga, by przekaz był rzetelny, możliwy do uzasadnienia i niewprowadzający w błąd w typowym odbiorze.
W USA organy wprost sygnalizowały, że „AI” nie jest magicznym słowem zwalniającym z zasad uczciwej komunikacji. Federal Trade Commission (FTC) prowadziła działania przeciw mylącym twierdzeniom o „AI-biznesach” i „AI-automatyzacji”, traktując je jako klasyczną sferę twierdzeń wprowadzających w błąd. W 2024 U.S. Securities and Exchange Commission (SEC) ukarała doradców inwestycyjnych za fałszywe i wprowadzające w błąd deklaracje o wykorzystaniu AI, a sama narracja regulatora pokazuje, że oświadczenia marketingowe dotyczące AI będą badane tak samo jak oświadczenia (deklaracje) ESG.
To nie jest „amerykański problem”. W UE i w Polsce fundament jest podobny: marketing nie może budować przewagi na informacjach, które nie znajdują pokrycia w rzeczywistości, zwłaszcza gdy wpływają na decyzje zakupowe. AI washing jest więc ryzykiem nie tylko dla działu marketingu, ale również dla zarządu, sprzedaży, zakupów i działu prawnego, bo skutki wracają w postaci reklamacji, sporów, audytów i renegocjacji.
2) Odpowiedzialność kontraktowa: obietnica z decka staje się „cechą produktu”
W praktyce B2B to nie jest abstrakcja: „AI-powered” w prezentacji, ofercie, RFP czy na stronie www bardzo często staje się elementem uzasadniającym wybór dostawcy, a potem wraca jako argument: „kupiliśmy to, bo miało AI”. Jeżeli w umowie (albo w dokumentach stanowiących jej część) deklarujesz określone właściwości, a produkt ich nie ma, wchodzisz w obszar klasycznego sporu o zgodność świadczenia z umową, rękojmię/odpowiedzialność za wady, nienależyte wykonanie, a niekiedy również o błąd przy zawarciu umowy (w zależności od konfiguracji faktów i materiału dowodowego).
Co więcej, AI washing często maskuje ryzyka operacyjne: brak odpowiednich testów, brak monitoringu driftu, brak kontroli danych, brak procedur reagowania na incydenty. A to już nie jest „marketing”. To realne ryzyka ciągłości i jakości usługi, które klient finalnie odczuwa.
3) Ryzyko regulacyjne: AI Act podnosi poprzeczkę co do tego, czym „AI” jest – i kiedy trzeba mówić prawdę wprost
Wątpliwości typu „czy to w ogóle AI?” będą narastały – bo od tego zależą obowiązki w łańcuchu dostaw, dokumentacja, transparentność i ocena ryzyka. Właśnie dlatego warto przyjąć prostą zasadę: jeżeli nie jesteś pewna/-y, czy coś jest AI to sięgnij do definicji z AI Act.
AI Act definiuje „system AI” jako system maszynowy zaprojektowany do działania z różnymi poziomami autonomii, mogący wykazywać adaptacyjność po wdrożeniu, który dla określonych celów wnioskuje z danych wejściowych, jak generować wyniki (np. predykcje, treści, rekomendacje lub decyzje) wpływające na środowisko fizyczne lub wirtualne. Definicja jest spójna z aktualizowaną definicją OECD, którą AI Act wprost odzwierciedla.
To jest bardzo praktyczne narzędzie „anty-AI-washingowe”. Bo jeśli Twój produkt:
- nie „wnioskuje” (tylko wykonuje reguły),
- nie generuje outputów typu predykcja/rekomendacja/decyzja na podstawie inferencji,
- nie ma żadnej autonomii (w sensie: działa wyłącznie jak deterministyczny mechanizm),
to nazywanie go „AI” może być zwyczajnie ryzykowne, zwłaszcza, gdy to „AI” jest elementem przewagi sprzedażowej.
Nie chodzi o to, by każdą automatyzację nazywać „nie-AI”, ale o to, by nie budować obietnic na pojęciu, które ma znaczenie prawne i będzie weryfikowane.
Typowe wzorce AI washing, które widzę w praktyce (i dlaczego są problemem)
Najczęściej spotykam trzy sytuacje.
Pierwsza: „AI-powered”, ale w rzeczywistości mamy klasyczne workflow, reguły biznesowe i automatyzację. Produkt może być świetny, ale jego przewaga nie wynika z AI, a obietnica „AI” ma jedynie zwiększyć atrakcyjność. Problem zaczyna się wtedy, gdy „AI” jest powiązane z dodatkowymi obietnicami: „sam się uczy”, „minimalizuje błędy”, „wykrywa nadużycia”, „zapewnia zgodność”.
Druga: AI jest, ale robi coś zupełnie innego niż sugeruje marketing. Model może np. klasyfikować zgłoszenia, a komunikacja sugeruje „automatyczne podejmowanie decyzji o przyznaniu świadczenia”. W łańcuchu odpowiedzialności to robi ogromną różnicę: inny jest profil ryzyka, inny obowiązek nadzoru człowieka, inna potrzeba walidacji, inne wymagania dokumentacyjne.
Trzecia: AI jest, ale nie ma dowodów na deklaracje i obietnice. „Nasza AI jest bezbłędna”, „eliminuje ryzyko”, „zapewnia compliance”. Takie twierdzenia są szczególnie ryzykowne, bo wprowadzają klienta w przekonanie o gwarancji efektu i o braku ograniczeń technologii. A potem wracają jako roszczenia.
Jak „odczarować” AI w komunikacji: podejście compliance i ISO 42001
Jako audytorka ISO/IEC 42001 patrzę na to nie jak na problem językowy, tylko jak na problem zarządczy: organizacja musi mieć mechanizmy, które ograniczają ryzyko rozjazdu między tym, co mówi rynek, a tym, co naprawdę dowozi produkt.
W praktyce działa prosta architektura kontroli:
Po pierwsze: jedna prawda o produkcie.
Organizacja powinna mieć wewnętrzny, uzgodniony opis: gdzie w rozwiązaniu jest AI, co dokładnie robi, na jakich danych działa, jakie ma ograniczenia i jakie są warunki poprawnego użycia. Bez tego sprzedaż, marketing i customer success będą tworzyć własne wersje „prawdy”, a to prosta droga do AI washingu „przez przypadek”.
Po drugie: zasada „deklaracje i obietnice muszą mieć potwierdzenie w faktach” (czyli wymagają dowodów).
Jeśli w materiałach pojawia się „AI”, to obok musi istnieć minimalna teczka uzasadniająca: testy, metryki, zakres danych, scenariusze brzegowe, informacja o ograniczeniach. Tak samo jak w klasycznym product compliance. Twierdzenia o funkcjach powinny być weryfikowalne.
Po trzecie: filtr prawny dla deklaracji i obietnic wysokiego ryzyka.
Są sformułowania, które niemal zawsze generują ryzyko: „gwarantuje”, „bezbłędnie”, „w pełni autonomicznie”, „eliminuje ryzyko”, „zapewnia zgodność”. W większości przypadków lepiej zastąpić je językiem opisującym realną funkcję: „wspiera”, „rekomenduje”, „automatyzuje etap X”, „zmniejsza czas”, „ułatwia wykrywanie”.
Po czwarte: używanie definicji AI Act jako „testu granicznego”.
Jeżeli zespół nie jest w stanie obronić tezy, że rozwiązanie spełnia elementy definicji AI systemu (inferencja → output typu predykcja/rekomendacja/decyzja, autonomia/adaptacyjność w określonym zakresie), to komunikacja powinna być ostrożna i precyzyjna.
Prosty „test anty-AI washing”: 6 pytań, które warto zadać przed publikacją
Zamiast mnożyć polityki, zacznij od jakości pytań. Gdy przygotowujesz stronę www, deck sprzedażowy, ofertę lub opis produktu, odpowiedz (wewnętrznie) na następujące kwestie:
- Co dokładnie jest „AI” w tym rozwiązaniu: komponent, model, funkcja?
- Jakie outputy generuje i w jaki sposób (predykcja, rekomendacja, decyzja, treść)?
- Czy system „wnioskuje” na podstawie danych, czy wykonuje deterministyczne reguły? (tu wraca AI Act)
- Jakie są ograniczenia: dane, kontekst, język, progi błędów, znane failure modes?
- Jaki jest poziom autonomii i gdzie jest człowiek w pętli (human oversight)?
- akie masz dowody na deklaracje i obietnice (testy, metryki, monitoring, wyniki pilotażu)?
Jeśli na 2-3 z tych pytań odpowiedź brzmi „to skomplikowane” albo „zależy, ale nie mamy tego spisanego” to jest sygnał, że ryzyko AI washingu już istnieje, nawet jeśli nikt nie miał złych intencji.
AI washing w 2026: coraz mniej miejsca na „marketingowy skrót”
Rynek dojrzewa. Klienci są coraz bardziej wyczuleni, działy zakupów zadają lepsze pytania, a regulatorzy (nie tylko w UE) pokazali, że deklaracje i obietnice dotyczące AI będą weryfikowane tak jak inne obietnice rynkowe. Przykłady z USA (FTC, SEC) warto traktować jak barometr: jeżeli deklaracje i obietnice oparte na „AI” stają się przedmiotem postępowań tam, gdzie ekosystem jest bardzo pro-innovation, to w UE, przy rosnącej presji na odpowiedzialność i transparentność i tym bardziej powinniśmy dbać o higienę komunikacji.
AI washing jest kuszący, bo krótkoterminowo „działa”: poprawia konwersję, wzmacnia storytelling i ułatwia sprzedaż. Długoterminowo jednak jest kosztowny: zwiększa ryzyko sporów, podkopuje zaufanie i utrudnia budowę dojrzałego AI governance. A w świecie AI Act i rosnących oczekiwań co do przejrzystości – „AI-powered” bez pokrycia będzie coraz częściej traktowane jak klasyczne wprowadzanie w błąd.