Ponad dwa lata temu umieściłem na tym blogu wpis na temat uczenia maszynowego, zwanego marketingowo AI (sztuczną inteligencją; SI, jeśli ktoś woli po polsku). Krytykowałem tam sposób opowiadania o tym zjawisku w mediach.

Pokazywałem, że pewne metody istniały od dawna, ale pod bardziej neutralnymi nazwami, jak właśnie uczenie maszynowe. Zaś słowo inteligencja wpleciono dopiero później, mimo że nie powstało nic rewolucyjnego. Zapewne po to, żeby uatrakcyjnić metodę w oczach ludzi.

Na bazie tej mylącej nazwy powstało wiele sztucznych oczekiwań. Bańkę pompują startupy, próbując wabić inwestorów. Oraz media, naganiając czytelników na reklamy. Ich podejście jest krótkowzroczne i może doprowadzić do rozczarowań. Tak myślałem wtedy i tak myślę nadal.

Ale muszę przyznać, że postępy w ostatnich latach mnie zaskoczyły. Modele tworzące treści stały się naprawdę niezłe. Przez co popularna obawa „AI zabierze mi pracę” wydaje się coraz bardziej uzasadniona.
Ktoś mógłby powiedzieć, że to niespójne – skoro w AI nie ma prawdziwej inteligencji, to nie przewyższy człowieka. A skoro go nie przewyższy, to również nie zastąpi.

Obawiam się jednak, że poprzeczka dla algorytmów jest zawieszona niżej niż poziom człowieka. I obniżana na siłę przez kadry kierownicze dużych firm.

Ci ludzie w swoich motywacjach i działaniach sami bowiem przypominają automaty. Tak do nich, jak i do AI, można odnieść pewien eksperyment myślowy zwany maksymalizatorem spinaczy. I to właśnie zrobię w tym wpisie.

Zapraszam!

Obrazek pokazujący postać w garniturze. Zamiast głowy ma ikonkę spinacza z programu Word. W tle widać wybuchającą ziemię, z której wyłania się strzałka obrazująca rosnący kurs akcji

Źródła: mem Stonks, asystent Clippy od Microsoftu, Deviantart.
Aranżacja moja (bez żadnego AI!).

Spis treści

Inteligencji tu nie ma

Zanim opowiem, czym w ogóle jest ten maksymalizator, ustalmy pewne ramy i wyjaśnijmy jedną podstawową kwestię. AI to nazwa marketingowa na określony rodzaj programów. Nie stoi za tym inteligencja taka jak u istot żywych.

Mówię rzeczy oczywiste? Dla niektórych niestety nie:

Tomek

To samo AI które wyrżnie kiedyś ludzi bo zda sobie sprawę ze przyczyną wszystkich złych rzeczy na tej planecie jesteśmy my. Na cholerę komu ta technologia.

Źródło: Facebook, nie zapisywałem dokładnego.

Francesco

Just like Chat GPT; this ain’t AI, but it’s nice to pretend, huh

Green?????????

@Francesco Uh, I don’t know if you know this but AI means Artificial Intelligence, It is a manmade version of someone/something that is capable of thought, Neuro-sama is indeed capable of thought, not to the extent of humans, and her memory is shit, but she is still able to think, and say things

Źródło: YouTube, komentarze pod filmem. Lekka korekta moja.

„AI potrafi myśleć”. „AI zda sobie sprawę”. „Ma jeszcze słabą pamięć, ale myśli”.
I to nie tylko wypowiedzi losowych, może małoletnich internautów. Coś o świadomości generatorów tekstu palnął nawet jeden z pracowników Google’a (jak się okazało – przynależący do sekty).

Istnieją ludzie, którzy na serio stosują taką personifikację. Moim zdaniem samo słowo inteligencja, dodane na siłę, ponosi za to sporą winę. Bo sugeruje coś, czego tam nie ma. A medialna narracja i zdjęcia humanoidalnych robotów tylko pogarszają sprawę.

Algorytmy jak blender

Wyobraźmy sobie, że mamy blender kielichowy.

Rysunkowa ikona blendera wypełnionego płynem

Źródło: mynamepong (strona Flaticon).

Prosta rzecz, prawda? Wkładamy coś do kielicha, przytrzymujemy guzik. Ostrza potną to, co jest w środku.
Znamy też ogólne zasady. Nie wkładać rzeczy zbyt twardych. Czyścić czasem kielich, bo inaczej będziemy mieli smoothie z pleśnią. Wtyczka ma być wpięta do kontaktu.

Ale czy bylibyśmy w stanie symulować w głowie, jak dokładnie to działa? Trajektorie wszystkich odbijających się składników, ich przyspieszenia? Siłę, z jaką uderzają o ścianki? Zmiany położenia każdego kawałka po zderzeniu z innym, odbitym?

Nie, i nie musimy. Nie trzeba rozumieć procesu na poziomie mikro, żeby znać jego ogólny przebieg i czerpać z niego korzyści.

I podobnie jest z algorytmami nazywanymi AI.
Kiedy czytamy w mediach „naukowcy nie rozumieją, jak to działa”, to nie chodzi o to, że ich umysły są bezsilne wobec jakiejś nowej, cyfrowej świadomości. A jedynie o to, że obliczenia są zbyt złożone dla ludzkich mózgów. Ale człowiek jest w stanie z grubsza przewidzieć efekt końcowy.

O ile oczywiście przyjmie poprawne założenia. W przeciwnym razie może się zdarzyć spektakularny, nieprzewidziany błąd. Tak w blenderze, jak i w algorytmie.

Może w urządzeniu coś się poluzowało od częstego korzystania, a nam przypadkiem wpadła jakaś twardsza rzecz. Jak kawałek skorupy orzecha.
Naciskamy guzik, jak wiele razy wcześniej. A tu iskry! Ostrze odpada, odbija się od ścianki kielicha, jesteśmy w szoku.

Algorytmy też takie bywają. Potrafią sprawnie działać w większości przypadków, a potem spektakularnie nas zaskoczyć.

Wpadki, nie wrogość

Spójrzmy dla rozluźnienia na parę historycznych przypadków takich spektakularnych wpadek:

  • Rozpoznawarka obrazu z Dysku Google’a oznaczyła pewną parę tagiem „goryle”.
  • W Chinach system rozpoznawania twarzy uznał, że pewna znana bizneswoman stoi na środku ulicy. Za co ukarał ją publicznym pouczeniem, może nawet mandatem.
    Problem? Nie stała tam. Było to tylko jej zdjęcie z reklamy umieszczonej na boku autobusu.

  • Podczas pewnego meczu kamera miała automatycznie podążać za piłką.
    Ale zamiast tego skupiała się na czymś innym o zbliżonym kształcie – łysej głowie sędziego.

Błędy zaskakujące, nieoczekiwane. Ale dające się wyjaśnić. Często brakiem danych treningowych z jakiejś niszowej kategorii.
Nikt nie wpadł na to, żeby algorytm rozpoznający okrągłe kształty dostał próbkę łysych głów. Ale jeśli zostanie wytrenowany od nowa, już z kompletem łysin, to zapewne zacznie prawidłowo je odróżniać od piłek.

Niemożliwy jest z kolei przypadek, kiedy nasz blender nagle puści ogień z dołu i poleci w kosmos. Albo powie nam ludzkim głosem, że nie chce mu się pracować. Ograniczają go prawa fizyki i brak odpowiednich części. Pewne rzeczy są po prostu niemożliwe.

I tak samo nie jest możliwe, że obecnie stosowane algorytmy zaczną myśleć i celowo działać przeciw nam.

Co nie zmienia faktu, że bywają zawodne. A jednak są masowo, bezrefleksyjnie wypuszczane w świat. Mimo że istnieje wielka rozbieżność między tym, czym są naprawdę, a tym, czym są w oczach zwykłego człowieka.
Co więcej – już teraz powierza im się sprawy wrażliwe, jak ocenianie ludzi. Albo służenie im za źródło informacji o świecie, czego przykładem jest Bing.

Przypadek Binga

Bing to wyszukiwarka od Microsoftu, konkurent Google’a. Ich produkt od bardzo dawna pozostawał w tyle, i to mimo licznych zabiegów zachęcających ludzi do korzystania z niego.

Dlatego, gdy tylko pojawiła się możliwość, nawiązali współpracę z OpenAI, autorami modeli serii GPT – nowoczesnych generatorów tekstu. Od teraz chętni mogą zadawać wyszukiwarce pytania, a ta, zamiast wyświetlić listę stron, wyświetli tekst z odpowiedzią… tylko że czasem fałszywą.

Ciekawostka

Nie byłby to pierwszy przypadek, kiedy Microsoft pospieszył się z wprowadzaniem algorytmów do swoich produktów. Kiedyś wypuścili na Twittera chatbota nazwanego Tay, ale skończyło się to spektakularną klapą. W ciągu doby ludzie przechytrzyli system i sprawili, że zaczął tworzyć treści wulgarne i mocno niepoprawne politycznie.

Bingowi trzeba przyznać, że tworzy piękne, prawidłowe zdania. Brzmi mądrze i pewnie.
Ale to tylko cienka fasada, a model potrafi tymi mądrymi i pewnymi zdaniami przekazywać bzdury. Nie radzi sobie z arytmetyką. Potrafi się pomylić w najprostszych obliczeniach:

150 000 x 0,7 [centa] - 475 = 600 $

A powinno tam być 575 dolarów. Dlaczego ta rzekoma sztuczna inteligencja robi tak elementarne błędy?

Bo to model językowy. Nie wnioskuje matematycznie, a liczby nie są dla niego żadną specjalną kategorią. Patrzy na nie jak na każdy inny tekst.
„Gdzieś były bardzo podobne znaczki i stało przy nich 600, więc teraz też to wyświetlę”. Logika modelu.

A ponieważ to dość nowoczesny model, to nie robi gaf spektakularnych, jak nagłe wymieszanie liczb z literami albo podanie wyniku ujemnego.
To usypia naszą czujność. Wszystko brzmi wiarygodnie, moglibyśmy prawie uwierzyć, że stoi za tym świadomość. Ale to mylne założenie, na którym ludzie jeszcze nieraz się przejadą.

W takich warunkach sugerowanie jakiejś inteligencji – i, co gorsza, nadawanie automatom konwersacyjnego tonu – wydaje się niezbyt odpowiedzialne. Więc dlaczego różne firmy (bo Microsoft jest jedną z wielu) tak się na to rzuciły?

Maksymalizatory spinaczy

Historyjka o maksymalizatorze spinaczy to taki luźny, stosunkowo popularny eksperyment myślowy.

Wyobraźmy sobie, że mamy sztuczną inteligencję zdolną ingerować w świat fizyczny. Ale bez obaw, nie jest wroga. Jej jedynym celem istnienia jest wytworzenie jak największej ilości spinaczy biurowych.

Brzmi nieszkodliwie? Ale gdyby ta SI wszystkie swoje działania optymalizowała tylko pod ten jeden cel, to mogłoby się na przykład okazać, że na którymś etapie zacznie brakować jej zasobów. Więc po prostu zabierze je ludziom. Albo nawet przekształci ich samych w materię, z której uda się stworzyć więcej spinaczy.

Nie ma w tym moralności, zła czy dobra. Maszyna nie uwzględnia tych kwestii. Ona po prostu realizuje określone wytyczne. „Ma być jak najwięcej spinaczy”. Reszta nie ma znaczenia.

Ten przypadek ilustruje, że do katastrofy nie potrzeba robotów-złoczyńców, którymi kieruje jakaś chęć dokuczenia ludziom. Wystarczy wydajna machina, której konfiguracja nie pokrywa się z interesem ludzkości.

Przykładem takiego maksymalizatora może być oczywiście AI. Ale nie tylko. Bezmyślne maksymalizatory znajdziemy czasem w zarządach wielkich firm.

Inne źródła

Choć mam w temacie parę własnych przemyśleń, w żadnym razie nie jestem autorem porównania. Znalazłem je w kilku miejscach:

  • w niektórych komentarzach z forum HackerNews, takich jak chociażby ten;
  • we wpisie z tuxen.de, Companies are AI;
  • artykule z Buzzfeed News (o tym portalu jeszcze będzie).

Maksymalizatory w zarządzie

Nieprzypadkowo piszę o „wielkich firmach”. Nie chodzi tutaj tylko o moją antypatię do korporacji (choć jej nie ukrywam), tylko po prostu o to, że pod wieloma względami różnią się od firm mniejszych.

Niektórym się wydaje, że zarząd to zawsze to samo. Właściciele firm, decydujący o ich losach. I często faktycznie tak jest, zwłaszcza przy małych firmach. Ale nie jest to żadna reguła.

Ważniejsze od stanowiska są bowiem posiadane udziały. Jeśli ludzie z zarządu mają mniejszość udziałów, to są de facto pracownikami. Dobrze wynagradzanymi, ale pracownikami. I mogą zostać odwołani, jeśli nie spełnią oczekiwań udziałowców.

Takie coś zauważymy w spółkach giełdowych, ale nie tylko. Również startupy, w które inwestują fundusze VC (venture capital), mają przykazane – muszą rosnąć. I to błyskawicznie, bo inaczej finansowanie się skończy, a inwestorzy zaczną pompować nowego, atrakcyjniejszego jednorożca.

Zarząd ocenia się według różnych metryk, nie ma tutaj reguły (od jakiegoś czasu patrzy się na przykład na kryteria ESG). Ale jedną z klasycznych miar jest zysk, jaki wygenerowała firma w danym roku.

Wyjaśnienie

Jeśli ktoś jeszcze nie wie – zysk to przychody minus koszty.
Załóżmy, że dostaliśmy w prezencie książkę. Przeczytaliśmy i chcemy komuś sprzedać. Płacimy 6 zł za bilet na komunikację, jedziemy do umówionego miejsca, sprzedajemy książkę za 20 zł.
Nasz przychód to 20 zł, ale ponieśliśmy 6 zł kosztów, więc zysk to 14 zł.

Kierownictwo nastawione na zysk może go zwiększać na dwa sposoby.
Jednym z nich jest zwiększanie przychodów. Może przez zdobywanie nowych rynków, może poszerzanie oferty, może zwiększenie obecnych cen.

Ale niektórzy patrzą na to od drugiej strony. Zamiast zwiększyć przychód, można zmniejszyć koszty. „Odchudzić” firmę. Choćby przez zwolnienie pracowników, użycie tańszych materiałów, znalezienie tańszych podwykonawców za granicą. Albo automatyzację.

Zresztą sami spójrzmy, co ma do powiedzenia o AI strona dla menedżerów:

Obserwując potencjał innowacyjny sztucznej inteligencji z jej możliwościami automatyzacji, można śmiało postawić tezę, że właśnie ten kierunek może być ratunkiem i szansą dla firm, tak jak digitalizacja w pandemii. W końcu nie od dziś wiadomo, że to właśnie technologia pozwala firmom obniżać koszty, wspierając jednocześnie nowe sposoby konkurowania i tworzenia nowej przewagi konkurencyjnej.​

Źródło: post MIT Sloan Management Review Polska na Facebooku

I tak, na dłuższą metę firma może się przejechać na redukcji kosztów. Staje się zależna od innych, psuje sobie reputację.

Ale na papierze oba rozwiązania prowadzą do tego samego. Atrakcyjniejszej wartości w polu Zysk.
Liczba spinaczy wzrosła, jest dobrze. A inne rzeczy się nie liczą. Pracownicy zarządzający przetrwają parę lat pod rząd z dobrym wynikiem, zdobędą premię. A potem mogą zmienić firmę.

Maksymalizatory niższego szczebla

To samo dotyczy również menedżerów niższych szczebli. Też są oceniani według bardzo konkretnych kryteriów. Mówiąc korpojęzykiem – kejpiajów (od. KPI, czyli Key Performance Indicators).

To niekoniecznie zyski, kryteria mogą być inne. Ale możecie być pewni, że niektórzy myślą jak maksymalizatory spinaczy. I jakie by nie były te kryteria, właśnie pod nie będą optymalizowali swoje działania.
Przykładem jest wybieranie projektów o ciekawszych nazwach zamiast nudniejszych prac „konserwacyjnych”. Wysyłanie bzdurnych uwag, żeby zwiększyć współczynnik visibility.

Fundamenty korodują… Ale gmach rośnie w górę. Spinaczy coraz więcej.

Maksymalizatory w ludzkiej skórze są podatne na wpływy. Jeśli jakaś zewnętrzna firma obiecuje im automatyzację przez AI, to dla menedżera brzmi to idealnie. „Znaczne usprawnienie i streamlining całego procesu”! Taki wyczyn w CV to gwarancja kariery!

A zatem menedżer kupuje system, nakazuje wdrożenie. Rozsyła do pracowników ankiety z prośbą o ocenę. A tu lipa, bo system jest niedopracowany, ciągle trzeba po nim sprawdzać, tylko spowolnił pracę.

W takiej sytuacji niejeden menedżer się zaniepokoi, zapoci, zaśmierdzi. Ale nie można dać po sobie poznać. Good vibes only, trzeba mieć mindset.
Wysyła nową, tendencyjną ankietę. Pytania zamknięte. „W jaki sposób nowy system poprawił twoją pracę? Ułóż wymienione zalety w kolejności od tej, którą doceniasz najbardziej”.

Potem przedstawia wyniki ankiet, zadowolony wpisuje do CV wymarzone uwagi o usprawnieniu procesu. Po jakimś czasie zmienia dział, zostawiając pracowników z całym bajzlem.

Chęć kontroli

Innym powodem, dla którego kierownictwo różnych szczebli sięga po metody AI, może być również chęć zacieśnienia kontroli nad pracownikami.

Jednym z przykładów jest Amazon, który wykorzystał metody AI do śledzenia swoich kierowców w USA – ciągłego monitorowania, czy ziewają w pracy, czy są skupieni, jak się zachowują, jak jeżdżą. Wszystko to, jak twierdzi ich rzeczniczka, dla lepszego bezpieczeństwa.

Ktoś mógłby powiedzieć, że przecież Amazon słynie z brudnych zagrywek, więc nie jest jakimś szczególnie dobrym przykładem.

Ale Amazon nie jest jedyny. Jakiś czas temu wyszło na jaw, że bank JP Morgan wprowadził nowy system monitorujący aktywność pracowników. Oczywiście oparty o kamery, czujniki i to nieszczęsne AI.
Analizuje on liczne parametry. Patrzy po ruchach myszki, czy pracownik jest aktywny. Ocenia widoczną na nagraniu twarz i mowę ciała. Jest skupiony? A może zestresowany?

A mówimy tutaj o wielkim banku inwestycyjnym. Kojarzącym się niektórym z prestiżem, specjalistami, pracą umysłową na wysokich obrotach. Jak widać, możliwość kontroli jest dla szefostwa cenniejsza niż ta reputacja.

Ale zostawmy już w spokoju nasze maksymalizatory w krawatach, myślę że już wystarczająco po nich pojechałem. Jeśli zgodzicie się ze mną, że sporo rzeczy wynika z ich fiksacji na mierzalnych wynikach, to parę rzeczy stanie się jasnych.

To dlatego są tak otwarci na automatyzację. Dlatego wypychają algorytmy na szybko, byle być first to market. Dlatego trzymają się nazw takich jak sztuczna inteligencja, obiecujących niestworzone rzeczy.
Nie ma w tym wielkich spisków. Tylko chęć zysku. Liczba spinaczy musi rosnąć.

Wpływ na wybrane zawody

W tej części pokażę parę przemyśleń związanych z wpływem AI na różne branże. Będę po kolei patrzył na zawody związane z tworzeniem treści, które do tej pory nie były jakoś szczególnie zagrożone.

W każdym przypadku pokażę najpierw, jakie próby standaryzacji i cięcia kosztów już wcześniej podejmowały korpo. A potem powiem, co mogą zmienić moim zdaniem coraz lepsze generatory.

Grafika

Za pewien przykład optymalizacji sprzed czasów sprawnego AI uważam forsowanie stylu nazywanego Corporate Memphis albo Alegria Art.

Kolaż zatytułowany Pakiet Startowy dla Grafik Branży Big Tech. Widać na nim różne grafiki o prostych kształtach, pokazujące humanoidalne postacie podczas różnych codziennych czynności

To proste kształty, pastelowe kolory. Postacie o nienaturalnych proporcjach i kolorach skóry (jak fiolet, zieleń…), żeby nikt nie zarzucił autorom dyskryminacji.
Ten styl miał też inną cechę – był prosty do tworzenia i przenośny. Gdy każda firma miała podobny, to łatwiej było zyskać zastępowalność grafików.

Jasne, firmy mogłyby postawić na unikalność, coś bliższego sztuce, bardziej dopasowanego do nich. Ale wybierały to, co robią inni, co jest jak wymienialne bateryjki.

A jak to było z generatorami obrazu? Już kiedyś tworzyły całkiem realistyczne ludzkie twarze. Albo koty, już z różnym efektem (This Cat Does Not Exist). Modeli było sporo, ale każdy miał jedną, wąską dziedzinę, do której był przystosowany. Graficy byli bezpieczni.

Potem nastąpiła rewolucja. DALL-E – automat łączący w sobie rozpoznawanie tekstu i generowanie obrazu. My zapewniamy opis jakiejś sceny, a on ją tworzy.
Obrazki były w oczywisty sposób pokraczne, ale niektórzy uważali to za ich urok. Obietnica swobodnego, darmowego tworzenia ilustracji przyciągała jak magnes.

Krótko potem pojawiły się modele Midjourney oraz Stable Diffusion. Które nie tylko tworzą obrazy na podstawie opisów… ale do tego mogą tworzyć w różnych stylach, określonych przez użytkownika. I to całkiem nieźle. Do tego stopnia, że jeden z nich wygrał konkurs fotograficzny.

Przykład dwóch obrazków. U góry widać wynik dla DALL-E Mini. Pod napisem Matematyk wpisanym w pole widzimy kilka obrazków, pokazujących głównie czarno-białe zdjęcia brodatych mężczyzn, nie do końca zgadza się anatomia. Na dolnym obrazku widać kilka postaci w szatach stojących w dużej komnacie, na tle ogrągłego okna lub obiektu przypominającego portal.

Przykłady twórczości DALL-E Mini (u góry) i Midjourney (na dole).
Źródła: Aperiodical, Dataconomy.

Z jednej strony można podnieść argument, że to pozwoli rozwinąć skrzydła ludziom, którzy niczego by nie stworzyli przez bariery finansowe. Mają pomysł, na przykład na grę, ale nie są na tyle pewni siebie, żeby płacić grafikom. AI zmienia tyle, że daje im szansę. Mając darmowe obrazki, rozwiną pomysł.

Ale to tylko jedna strona medalu. Już teraz znajdziemy przypadki, kiedy ktoś wprost pisze, że korzystał z usług ludzi, ale przechodzi na AI.

Skoro robią tak mniejsze działalności, to co powstrzyma wielkich graczy? Wielu z nich od dawna wystarczyła Alegria na masową skalę. A teraz mają ją prawie za darmo i w lepszej jakości. Ludzie mogą się burzyć, ale oburzenie nie jest uwzględniane przez maksymalizator.

Pisanie tekstów

Skupię się tu na ludziach tworzących teksty na komercyjne strony internetowe. Taka twórczość powinna zawierać odpowiednie słowa kluczowe, dzięki którym strona zajmie wyższe pozycje w wynikach wyszukiwania.

Ta branża już wcześniej była mocno optymalizowana. Przykładem są zwłaszcza strony zarabiające na wyświetlaniu reklam. Dla nich jakość nie ma aż takiego znaczenia. Liczy się tylko to, żeby użytkownik je odwiedził i spędził na nich trochę czasu.

W związku z tym powstawały strony pełne treści dopchanej na siłę, byle tylko algorytm je wyróżnił – jak słynne przepisy z dodatkiem bzdurnych historyjek. Czasem jest też jedna rzecz opisana na różne sposoby. Albo automatyczne tłumaczenie czegoś zagranicznego.

Dla użytkowników? Sieczka nie do zniesienia. Ale jeśli weszli, długo przewijali w poszukiwaniu konkretów, reklamy się wyświetliły… To spinacze zmaksymalizowane. Zaś opcja, że od teraz będą unikali strony jak ognia, nie jest wliczona w metryki.

Logika podpowiada, że generatory tworzące wiarygodny tekst, jak seria GPT, mogłyby kompletnie zmienić tę branżę.
„Napisz mi długą, wzruszającą historię o szarlotce Babci Eli. O tym, że jedliście ją na wsi nad rzeką. A na końcu dodaj przepis na szarlotkę”. I już, nie trzeba nikogo zatrudniać. Jakość i tak nie miała większego znaczenia.

Postanowiłem poszukać naturalnych dyskusji na Reddicie. Hasło chat gpt copywriting site:reddit.com w DuckDuckGo. I trafiłem na wątek z dyskusją na temat wpływu ChatGPT na branżę.

Moderator go zamknął, pisząc że to 476. wątek z kolei – jeśli nie przesadzał, to może nam to dać do myślenia, jaka jest skala tego zjawiska i ludzkich obaw.

Tłumaczenia

Dawniej tłumaczenie maszynowe (przez komputer) było dziadowskie, zbyt dosłowne, „słowo po słowie”. Ale nawet to niektórym nie przeszkadzało. Po prostu kazali pracownikom tworzyć komunikaty, na przykład pogodowe, według ścisłego szablonu. W ten sposób tłumaczono je na masową skalę.

Kolejne, coraz lepsze algorytmy stopniowo zmieniały specyfikę pracy tłumaczy. Więksi, „korporacyjni” pośrednicy nieraz tłumaczą teksty maszynowo, a potem próbują je upchnąć tłumaczom do korekty (gorzej płatnej niż tłumaczenie od zera).

Jeśli chcemy dowodów, można poszukać wątków zawierających hasło PEMT (Post-editing Machine Translation) na forum Proz, jednym z głównych miejsc zrzeszających tłumaczy. Pierwsze pojawiały się już w 2011 roku!

Ogólnie tłumaczenia wydają się branżą pełną niuansów, co fajnie (i po polsku!) opisał Informatyk Zakładowy.
Żeby komputer mógł wiernie tłumaczyć wszystko – w tym miksy gier słownych, nawiązań kulturowych, rymy – bardzo możliwe, że musiałby dysponować inteligencją ogólną.

Ale ludzkie maksymalizatory z dużych firm nie miałyby nic przeciwko wywaleniu niuansów, jeśli oznacza to oszczędności. Mogą nakazać tworzenie tekstów uproszczonych, szablonowych, nijakich. Byle tylko były lekkostrawne dla (coraz lepszych) algorytmów tłumaczących.

Obok nich dopisze się małymi literkami adnotację, że informacje w nich zawarte nie są wiążące – dupochron na wypadek, gdyby algorytm coś przekręcił. I będzie good enough.

A w ocenie rocznej znajdzie się jedynie informacja o tym, że maksymalizator menedżer skutecznie zredukował koszty tłumaczenia do zera.

Dziennikarstwo

Wydawać by się mogło, że to zawód trudny do zastąpienia – o ile mówimy o dziennikarzach śledczych i korespondentach z prawdziwego zdarzenia. W końcu ta praca wymaga zbierania informacji, docierania do źródeł, często przemieszczania się po świecie fizycznym i rozmów w cztery oczy.

I faktycznie – gdyby poziom miał jakieś znaczenie, to generatory tekstu wyparłyby co najwyżej dziennikarstwo masowe, tabloidowe. Takie, w którym zarabia się na reklamach, więc liczą się wyłącznie krzykliwe nagłówki i wabienie użytkowników na stronę.

Ale niestety jest inaczej. Maksymalizuje się spinacze, a nie jakość. Dobrze nam to pokazuje przykład portalu Buzzfeed.

Miał on swego czasu dwa oblicza. Sam główny Buzzfeed, czyli powszechnie wyśmiewane artykuły spamowe. „Jakim jesteś serkiem na grilla? Sprawdź nasz quiz!” i tym podobne treści.
Ale oprócz tego mieli dział Buzzfeed News. Rzetelniejsze wiadomości i dziennikarstwo śledcze. Niektóre reportaże zdobyły nawet Nagrodę Pulitzera.

Redakcja zaczęła używać algorytmów do generowania tych bardziej spamowych, tabloidowych treści.
W idealnym świecie mielibyśmy na tym etapie happy end. Ludzie nie tracą czasu na tworzenie masówki. A masówka przynosi zyski, dzięki którym może działać redakcja wyższej jakości.

Ale w świecie ludzkich maksymalizatorów jest inaczej. Szefostwo zlikwidowało cały dział Buzzfeed News. Pozostawiając wyłącznie lukratywny, generowany komputerowo chłam.

Programowanie

Skoro świat coraz mocniej stawia na cyfryzację, to ten zawód wydaje się dość stabilny. Ale dla firm to koszty, więc oczywiście widać próby optymalizacji. Jednym z przykładów jest rozwój narzędzi low codeno code, ułatwiających tworzenie różnych programów bez pisania kodu.

Innym przykładem są masowe zwolnienia w ostatnim czasie, również w spółkach branży big tech. Proponuję przeszukać forum HN pod kątem zwrotu "lays off", z sortowaniem od najnowszych.

W czasach Covida przez moment zanosiło się na cyfrową rewolucję. Firmy technologiczne zaczęły masowo rekrutować ludzi. Teraz bańka się skończyła, niektórzy każą wracać do biur. A co teraz zrobić z nadmiarem pracowników? Można zwolnić! Mniejsze koszty, czyli większy zysk, wincyj spinaczy :metal:

I tak, wiem że niektóre firmy nawet po redukcji mają znacznie więcej personelu niż przed Covidem.
Co nie zmienia faktu, że masowa rekrutacja była owczym pędem. „Inni rekrutują, to też musimy. A teraz redukujemy”. Żadna branża nie jest wolna od maksymalizacji spinaczy.

A jeśli chodzi o sprawy AI…

Pierwszym (według mojej wiedzy) popularniejszym generatorem kodu był Copilot. Oferowany przez Githuba, platformę zajmującą się przechowywaniem kodu źródłowego. Na jego podstawie stworzyli swój generator, wyświetlający podpowiedzi w trakcie pisania kodu.
Był podobno całkiem w porządku, ale nie uznawano go za rewolucję.

Większe poruszenie wywołały natomiast modele GPT od OpenAI.
Są one, przypominam, generatorami tekstu wszelakiego. Nie stworzono ich z myślą stricte o kodzie. A jednak radziły sobie naprawdę dobrze – pisało im się, żeby stworzyły kod robiący to i to, a one go tworzyły. Skądinąd poprawny. Pomijając przypadki, gdy kazały importować jakieś nieistniejące moduły.

Na razie niektórzy się cieszą, że mają te same zarobki, a GPT pozwala im pracować szybciej. Ale gdy szefostwo to zauważy, to zastanowiłbym się nad trwałością tego stanu rzeczy.

Branża reaguje różnie. Niektórzy to pozytywni ludzie i mówią z uśmiechem, że będzie co będzie. Już od jakiegoś czasu myśleli o własnym gospodarstwie.

Ale trafiają się też koguciki głoszące z pełną powagą „Rynek wytnie słabych, ale nigdy nie przestanie cenić Specjalistów” (w domyśle: właśnie ich, niezastąpionych, pracujących za ułamek pensji Amerykanina).
No cóż, ego nie przegadam :wink: Dlatego zostawię tu tylko jednego mema.

Komiks złożony z czterech paneli. Na pierwszym rysunkowa, uśmiechnięta postać podpisana Programista mówi, że jest kreatywnym i niezastąpionym pracownikiem. Na drugim panelu widać śmiejącego się mięśniaka podpisanego ChatGPT. Na trzecim panelu dołącza do niego drugi mięśniak, podpisany Masowe Zwolnienia, i obaj się śmieją. Na ostatnim panelu biją płaczącego Programistę.

Podsumowanie

Cały ten wpis kręci się wokół jednego prostego pytania: „Czy sztuczna inteligencja zabierze mi pracę?”.

Moja odpowiedź – nie, nie zabierze. Ale mogą ją zabrać krawaciarze. Myślący krótkoterminowo, skupieni na wąskim zestawie metryk i własnych karierach. Maksymalizatory spinaczy z ludzką twarzą.

Pamiętajmy o tym. Wszystkie decyzje o zastępowaniu ludzi automatami są dziełem inteligencji ludzkiej. Bo w zarządach nie ma algorytmów – jeszcze.