Algorytm już zdecydował
Algorytm nie pytał cię o zdanie. Nie musiał. W tej chwili dziesiątki systemów zapisuje dane o tym, jak czytasz te słowa -- i nikt nie będzie wiedział, kto naprawdę zdecyduje za ciebie.
Algorytm już zdecydował
Nie pytał cię o zdanie. Nie musiał.
W tej chwili, gdy czytasz te słowa, dziesiątki algorytmów zapisuje dane o tobie: co czytasz, jak długo, gdzie się zatrzymałeś, czy przewinąłeś akapit w połowie, czy może wróciłeś. Żaden z nich nie jest złośliwy. Żaden nie ma złych intencji. To właśnie sprawia, że ta sytuacja jest tak niebezpieczna: nie ma kogo winić, gdy traci się kontrolę na rzecz systemu, który po prostu... optymalizuje.
Weszliśmy w dekadę, w której decyduje się, kto będzie rządził światem w XXI wieku. Nie za pomocą armii, chociaż armie są. Nie za pomocą surowców, chociaż surowce mają znaczenie. Za pomocą modeli językowych, systemów predykcyjnych i infrastruktury obliczeniowej, do której dostęp ma garstka ludzi, a której wpływ odczuwa każdy.
Wyścig
W lutym 2023 roku, trzy miesiące po premierze ChatGPT, Microsoft zainwestował dziesięć miliardów dolarów w OpenAI. Nie w startup z pomysłem. W firmę, która już wdrożyła produkt do setek milionów użytkowników szybciej niż cokolwiek w historii internetu. Odpowiedź Google przyszła w ciągu tygodni: Bard, potem Gemini, przyśpieszony harmonogram, wewnętrzna panika opisana przez pracowników jako "kod czerwony". Amazon wszedł z czterema miliardami dolarów w Anthropic. Meta otwarto-źródłowała LLaMA, sugerując, że demokracja w AI jest możliwa, a jednocześnie budując własne centra danych za dziesiątki miliardów dolarów.
Co jeśli ta "otwartość" to strategia, a nie wartość?
Po drugiej stronie Pacyfiku, Chiny nie śpią. Baidu uruchomiło Ernie Bot. Alibaba wypuściło Qwen. Huawei projektuje własne chipy AI, bo amerykańskie embargo odcięło dostęp do NVIDIA H100. Chińskie regulacje z 2023 roku zobowiązują dostawców modeli do "poprawnych wartości socjalistycznych" w odpowiedziach. To nie jest cenzura w zachodnim rozumieniu. To wbudowana ontologia, model rzeczywistości zakodowany w parametrach. Pytasz chiński model o Tiananmen -- nie kłamie. Po prostu nie wie.
Unia Europejska odpowiada regulacją. AI Act wchodzi w życie etapami od 2024 do 2026 roku. To największa próba zdefiniowania prawnie, czym jest "bezpieczna AI", jaką kiedykolwiek podjęto. Entuzjaści wolności internetu mówią, że Europa znowu reguluje zamiast innowować. Krytycy regulacji mówią, że to właśnie powinny robić rządy demokratyczne. Obydwie strony mają rację i żadna z nich nie ma mocy sprawczej w skali porównywalnej z tym, co robi się w Dolinie Krzemowej i Pekinie.
Jeśli AI wygrałoby wybory -- czy w ogóle byś to wiedział?
Wyścig nie jest o to, kto ma najbystrzejszy model. Jest o to, kto ma model wdrożony w infrastrukturze krytycznej: w systemach opieki zdrowotnej, w platformach decyzji kredytowych, w algorytmach rekrutacyjnych, w systemach zarządzania granicami. Google DeepMind podpisał umowy z NHS w Wielkiej Brytanii. Palantir przetwarza dane wywiadowcze dla NATO i jednocześnie sprzedaje systemy HR do korporacji. Clearview AI sprzedał swoją technologię rozpoznawania twarzy ponad 600 agencjom policyjnym w 40 krajach. Żadna z tych transakcji nie wymagała twojej zgody.
Co to naprawdę znaczy
Zapomnij na chwilę o geopolityce. Zapomnij o rządach i korporacjach. Pomyśl o sobie -- konkretnie, jutro rano.
Wstajesz. Otwierasz telefon. Algorytm decyduje, co zobaczysz jako pierwsze: którą wiadomość, jakie zdjęcia od znajomych, jaki news. Ta decyzja nie jest neutralna. Każdy wybór jest skalibrowaniem twojego nastroju na następną godzinę. Badania opublikowane przez Frances Haugen, whistleblowerkę Facebooka, pokazały, że wewnętrzne modele firmy wiedziały, że platformy Instagram powodują depresję u nastoletnich dziewcząt. Wiedziały i optymalizowały dalej, bo zaangażowanie przekładało się na przychody.
Czy ufasz firmie, której nazwy nie znasz, że nie czyta twoich myśli?
Idziesz do pracy. Jeśli aplikowałeś kiedykolwiek o pracę w dużej korporacji po 2019 roku, twoje CV przetworzyło oprogramowanie ATS zanim jakikolwiek człowiek je zobaczył. Hirevue, jeden z wiodących dostawców, oferuje analizę video-rozmów kwalifikacyjnych opartą na AI: mimika, intonacja, dobór słów. Kandydaci, których system oceni niżej, nie przechodzą do kolejnego etapu. System nie musi uzasadniać decyzji.
Wieczorem próbujesz zaciągnąć kredyt. Twoja ocena kredytowa jest obliczana przez algorytmy, które uwzględniają setki zmiennych, z których część nigdy nie była ci ujawniona. Niektóre systemy credit scoringu w USA wykorzystywały kody pocztowe jako proxy dla rasy, co wyszło na jaw dopiero po audytach zewnętrznych. Algorytm nie był rasistowski. Algorytm był dokładny -- i właśnie to było problemem.
Co zrobisz, gdy algorytm odmówi ci kredytu i nikt nie będzie wiedział dlaczego?
Reset
"Wielki Reset" to termin, który od lat krąży po forach konspiracyjnych. Tyle że coś się naprawdę resetuje -- tylko nie w sposób, który dałoby się pokazać na tablicy. Reset jest technologiczny, rozproszony, i już się dzieje.
Prawnicy używają Harvey AI do redagowania kontraktów i przeprowadzania due diligence. Harvey, finansowany przez Sequoia Capital i OpenAI, obsługuje kilkaset kancelarii prawnych na świecie. Paralegal, który w 2018 roku potrzebował tygodnia na research, dziś robi go w trzy godziny. Połowa etatów juniorów w kancelariach prawnych w USA i UK nie zostanie odtworzona w nadchodzących pięciu latach, wedle analiz McKinsey. Nie dlatego, że prawnicy stracą pracę. Dlatego że kancelarie przestaną ich zatrudniać.
W medycynie Google DeepMind's AlphaFold rozwiązał problem fałdowania białek, który przez 50 lat był "świętym Graalem" biologii strukturalnej. Jednocześnie systemy AI do diagnozowania raka skóry osiągają czułość równą lub wyższą niż dermatologowie z 20-letnim doświadczeniem. Pytanie nie brzmi, czy AI zastąpi lekarzy. Pytanie brzmi: kiedy ubezpieczyciel przestanie zwracać koszty konsultacji z lekarzem, gdy algorytm jest "wystarczająco dobry".
Co poświęcisz jako ostatnie: prywatność, wolność słowa, czy wolność wyboru?
W polityce mikrotargeting wyborczy, którego Cambridge Analytica była jedynie wstępem, ewoluował w sposób trudny do śledzenia. Modele predykcyjne budowane na danych z mediów społecznościowych potrafią klasyfikować wyborców niezdecydowanych z dokładnością wystarczającą do mikrotargetowania przekazów na poziomie konkretnego bloku mieszkalnego. Twoja decyzja, w kabinie wyborczej, jest wynikiem działania setek algorytmów, z których żaden nie jest wpisany na liście kandydatów.
To jest reset. Nie wielki event. Codzienne, niezauważalne przesunięcie kompetencji decyzyjnych z ludzi na systemy.
Dwie strony
Jest pokusa, żeby powiedzieć: "to jest skomplikowane, są zalety i wady, prawda jest po środku". To wygodna pozycja. To też kapitulacja.
Są dwie strony. Nie "zwolenników AI" i "przeciwników AI". Podział przebiega inaczej: między tymi, którzy uważają, że technologia powinna być pod demokratyczną kontrolą, a tymi -- świadomymi lub nie -- którzy godzą się na status quo, w którym kilka prywatnych korporacji i dwa państwa autorytarne wyznaczają granice możliwego.
Nie ma neutralności. Jeśli używasz produktów Google, Mety, Apple, Amazona bez żądania transparentności, finansujesz infrastrukturę, która z zasady jest nieprzejrzysta. Jeśli nie domagasz się od swojego rządu regulacji wymagających audytowalności systemów AI w decyzjach publicznych, to nie ma ich kto wymagać. Rządy nie regulują dobrowolnie tego, co im wygodne.
Czy boisz się AI, czy boisz się że inni boją się za mało?
Niektórzy eksperci, między innymi Yoshua Bengio -- jeden z "ojców chrzestnych" głębokiego uczenia -- podpisali w 2023 roku list otwarty wzywający do sześciomiesięcznego moratorium na trenowanie modeli silniejszych niż GPT-4. List podpisało ponad 30 000 osób. Efekt: żadne moratorium nie nastąpiło. Wyścig trwa, bo żaden z graczy nie może sobie pozwolić na zatrzymanie się, gdy inni jadą dalej.
Unia Europejska próbuje. AI Act jest realnym dokumentem prawnym z realną mocą wykonawczą. Ale UE to 450 milionów ludzi. Chiny to 1,4 miliarda. USA to 335 milionów plus dominacja nad globalną infrastrukturą cyfrową. Regulacje, które nie dotyczą wszystkich graczy, regulują tylko tych, którzy je zaakceptują.
Wybierz stronę
To nie jest tekst, który kończy się wnioskiem. Wnioski są dla akademickich esejów. To jest wezwanie.
Jeśli czytasz to i czujesz niepokój -- ten niepokój jest uzasadniony. Nie jesteś paranoiczny. Pytanie jest inne: co zrobisz z tym niepokojem. Prawdziwa zmiana wymaga żądania od polityków konkretnych regulacji, uczestniczenia w publicznych konsultacjach, wspierania organizacji takich jak Panoptykon w Polsce czy AI Now Institute.
Jeśli czytasz to i myślisz: "przesada, AI to tylko narzędzie" -- też masz rację, częściowo. Narzędzia kształtują tych, którzy ich używają. Pismo zmieniło ludzką pamięć. Druk zmienił władzę Kościoła. Internet zmienił demokrację. AI nie jest wyjątkiem od tej reguły. Jest jej najbardziej radykalną instancją.
Algorytm już zdecydował, że ten artykuł do ciebie dotrze. Pytanie, które teraz masz, jest twoje: co zrobisz z tą informacją?
Dla tych, którzy się boją: Co konkretnie czujesz, że tracisz -- i czy kiedykolwiek to miałeś?
Dla tych, którzy ufają AI: Jeśli jutro okaże się, że twoje dane były przez ostatnie dwa lata używane do profilowania politycznego bez twojej wiedzy -- czy to zmieni twoje zdanie?
Często zadawane pytania
- Czy sztuczna inteligencja może zastąpić człowieka w podejmowaniu decyzji?
- AI już teraz podejmuje lub silnie wpływa na decyzje kredytowe, rekrutacyjne, medyczne i sądowe. Systemy ATS odrzucają CV bez udziału człowieka. Algorytmy credit scoringu decydują o dostępie do finansowania. Pytanie nie brzmi czy, lecz gdzie zostaje jeszcze człowiek w pętli decyzyjnej.
- Czym jest AI governance i dlaczego jest ważne?
- AI governance to zbiór regulacji, standardów i mechanizmów nadzoru określających jak systemy AI mogą być tworzone, wdrażane i rozliczane. Jest ważne, bo bez governance firmy prywatne i rządy wdrażają systemy AI wpływające na życie milionów bez przejrzystości ani możliwości odwołania. Unia Europejska AI Act jest pierwszym wiążącym prawem w tej dziedzinie na świecie.
- Jak wyścig USA-Chiny o AI wpływa na zwykłych ludzi?
- Wyścig o dominację w AI między USA a Chinami kształtuje jakie standardy prywatności, cenzury i kontroli algorytmicznej staną się globalną normą. Kto wygra wyścig infrastrukturalny, ustali reguły dla reszty świata -- w tym dla użytkowników w Europie i Polsce.
Komentarze
Bądź pierwszy, który skomentuje.
Zaloguj się, aby skomentować.