Przejdź do głównej zawartości


Dziś w #OkoPress mój tekst o #ChatGPT i "sztucznej inteligencji":

https://oko.press/chatgpt-cala-prawda-o-wielkich-modelach-jezykowych

> Antropomorfizacja modeli uczenia maszynowego, takich jak ChatGPT, ma na celu przekonanie nas, że nawet jeśli te technologie nie są całkowicie bezpieczne i nieszkodliwe, to są przynajmniej neutralne. Po to, by trudniej było nam dostrzec, jaką mogą wyrządzać krzywdę

> Warto przyjrzeć się bliżej zakodowanym w nich uprzedzeniom i temu, komu służą — a kogo mogą krzywdzić.

1/🧵
Ten wpis został zedytowany (2 lata temu)

7 użytkowników udostępniło to dalej

Piszę o języku, który utrudnia nam rozmowę o krzywdzie wyrządzanej przez te modele. O tym, że modele uczenia maszynowego nie są "neutralne" ani "obiektywne" — niezależnie od tego, jak wygodne by to było dla ich twórców i dla organizacji je wdrażających.

Sprawdzam, skąd w tych modelach tyle uprzedzeń i stereotypów. Pytam, skąd biorą się dane, na których są trenowane, kto je dobiera i kategoryzuje. Rozmawiam o konsekwencjach tych decyzji.

#ChatGPT

2/🧵
Ten wpis został zedytowany (2 lata temu)

MBudostępnił to.

Zastanawiam się, czy koszty — społeczne i ekologiczne — tych narzędzi są warte tego, co nam oferują.

Przyglądam się też temu, kto na tych modelach (i z tych modeli) korzysta (rozwinięta, biała Globalna Północ), a kto mierzy się z konsekwencjami ich trenowania i ich uprzedzonych decyzji.

Można inaczej. W mniejszych modelach łatwiej uniknąć wielu z tych problemów. Ale trudnien nimi zbajerować opinię publiczną…

#ChatGPT

3/🧵
Ten wpis został zedytowany (2 lata temu)

2 użytkowników udostępniło to dalej

NIE SĄ TEGO WARTE (źródło: moja niezbyt obiektywna opinia)
Opieram się na potężnej pracy badaczek i badaczy AI/ML, zwłaszcza:

- Excavating AI. The Politics of Images in Machine Learning Training Sets
https://excavating.ai/

- On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? 🦜
https://dl.acm.org/doi/10.1145/3442188.3445922
Trzy autorki (z czterech) są na fedi — @timnitGebru, @emilymbender, @mmitchell_ai

- To Live in Their Utopia: Why Algorithmic Systems Create Absurd Outcomes
https://ali-alkhatib.com/papers/chi/utopia/utopia.pdf
autorowi @ali dziękuję za wywiad do tekstu!

🧵/koniec
Ten wpis został zedytowany (2 lata temu)

MBudostępnił to.

Jest to (pomijając wstawki wyznaniowe) bardzo dobry tekst. Obawiałbym się co najwyżej, czy nie zbyt ambitny na mainstreamowego odbiorcę — ale na pewno będę polecał.

Widziałem też metaforę, że to co robi chatgpt to raczej po prostu bullshitting (ton absolutnej pewności siebie do kompletnych głupot, coś jak typowy absolwent Eton) niż manspaining (który oczywiście zawiera bullshitting, ale też parę innych elementów).
@rysiek
@rcz dzięki.

Tak, jest pytanie o ambicję, miałem z tym rozkminę. Problem w tym, że jeśli się to uprości za bardzo, po prostu nie da się o pewnych kwestiach sensownie rozmawiać.

Mam wiarę w mainstreamowych odbiorców. Staram się upraszczać tam, gdzie to konieczne i wyjaśniać tam, gdzie się nie da uprościć. Wierzę, że takie podejście działa — a Oko zdaje się podzielać moją wiarę w tym zakresie. 😃

Metafor jest dużo. Moja ulubiona na razie to chyba "ChatGPT is a blurry JPEG of the Web".
@rcz https://www.newyorker.com/tech/annals-of-technology/chatgpt-is-a-blurry-jpeg-of-the-web #KronikarskieOCD
Tu jest ciekawa relacja z pierwszej linii frontu https://www.wsj.com/articles/ai-chatgpt-chatbot-workplace-call-centers-5cd2142a?mod=hp_lead_pos7 #chatbot #AI
a jakieś przykłady byś podał tych uprzedzeń? OpenAI dwoi się i troi żeby je odfiltrować (o czym z resztą sam wspomniałeś). A jak ktoś celowo formułuje pytania, żeby obejść te zabezpieczenia, no to cóż 🤷 Modele są uczone na danych z internetu są więc odbiciem nas samych. Więc może to nie w modelach problem?

Kwestia ekologii: no to co, mamy zrezygnować z postępu technologicznego? Nie jeździć samochodami, nie latać samolotami? Biedniejsze kraje też mniej korzystają z tych dobrodziejstw przypominam.

I wreszcie kwestia poprawności informacji. LLM mylą się, tak, ale porozmawiaj sobie czasem z przeciętnym człowiekiem na ulicy, wtedy się dopiero przerazisz ;)
@piotrek

> Modele są uczone na danych z internetu są więc odbiciem nas samych. Więc może to nie w modelach problem?

No pewnie, przecież o tym piszę. Problem w danych, w ich doborze, w ich opisie. Nie zmienia to faktu, że jest to problem, i że twórcy tych narzędzi muszą się bardziej postarać ten problem rozwiązać.

MBudostępnił to.

@piotrek

> OpenAI dwoi się i troi żeby je odfiltrować (o czym z resztą sam wspomniałeś)

Ale "odfiltrowywanie" tych uprzedzeń po wytrenowaniu uprzedzonego modelu to zamiatanie kwestii pod dywan. Zamiast tego, należałoby się skupić na trenowaniu modeli tak, żeby nie były uprzedzone. To jednak wymaga więcej pracy i generuje większe koszty. Więc po co się starać?

Lepiej zamieść pod dywan, przekonać ludzi, że kwestionowanie tych narzędzi to "rezygnowanie z postępu". Taniej. Kasa musi się zgadzać.

MBudostępnił to.

@piotrek piszę przecież na koniec, że można przecież trenować modele mniejsze, wyspecjalizowane, na lepiej opisanych, mniejszych zbiorach danych. Nie chodzi o to, by z tej technologii kompletnie zrezygnować, tylko o to, jak tę technologię *sensownie* rozwijać.

Identyfikowanie ogromnych modeli językowych z "postępem" dziś to jak identyfikowanie ogromnych samolotów śmigłowych z postępem w latach 1940.
https://www.youtube.com/watch?v=i-AZRtI366w

Wtedy okazało się, że nie tędy droga. I dziś może się tak okaże.

MBudostępnił to.

@piotrek

> LLM mylą się, tak, ale porozmawiaj sobie czasem z przeciętnym człowiekiem na ulicy, wtedy się dopiero przerazisz

To po co budować takie narzędzie, skoro można po prostu posadzić Zdziśka z rogu Marszałkowskiej przed komputerem i płacić za bullshitting losowych rozmówców?

Argument z "a bo ludzie też się mylą" to nie argument *za* budowaniem narzędzia, które nie ulepsza sprawy. Wręcz przeciwnie, to argument za tym, by zastanowić się, czy nie lepiej skupić się na czymś innym.

MBudostępnił to.

GPT jest genialnym narzędziem do "wstępnego reserachu" i streszczenia. Gdy spotkasz się z pojęciem ci nieznanym, poproś go o wytłumaczenie tego prostymi słowami. W 90% do tego używam tych modeli. W dobie Internetu dostosowanego pod SEO, pełnego rozwlekłych artykułów zoptymalizowanych do tego żeby ci wcisnąć po drodze jak najwięcej reklam to jest dla mnie mega ułatwienie.

Dlaczego to działa tak dobrze? Bo taki model, z racji swojej wielkości,ma niesamowicie rozległą wiedzę. Nawet jeśli czasem źle skojarzy fakty, dla mnie to nie ma znaczenia, bo pytając o to samo człowieka na forum też nie mam gwarancji że odpowie mi dobrze. Ja i tak używam tego tylko do załapania ogólnej koncepcji i słów kluczowych o które warto odpytać Google.

Pisałeś o trenowaniu "mniejszych modeli" ale ciężko mi się do tego odnieść bo nie mogę znaleźć żadnego przykładu. Ograniczenie zbiorów danych raczej nie wpłynie pozytywnie na poprawność odpowiedzi, a i ograniczy przydatność tego narzędzia w zastosowaniu streszczania. Co do ekologii jeszcze to pamiętaj że nie każdy model uczy się od zera. Raz wytrenowany model można użyć do trenowania innych, o węższych zastosowaniach (fine-tuning to się nazywa) co znacznie ogranicza zapotrzebowanie na moc obliczeniową.
@piotrek model nie ma "wiedzy". Nie "kojarzy faktów". Model probabilistycznie generuje tekst, to wszystko.

Skupiasz się na konkretnym zastosowaniu, w którym konkretny model znajdujesz przydatnym. Ja piszę ogólnie o problemach związanych z takimi ogromnymi modelami, bo były, są, i będą używane do innych rzeczy, w sposób, który będzie powodował i już powoduje wymierne szkody.

"Piła łańcuchowa przydaje mi się w ogrodzie" to słaby argument za tym, by każdy, zawsze miał dostęp do pił łańcuchowych.

MBudostępnił to.

@piotrek @Michał "rysiek" Woźniak · 🇺🇦
Podaj jakiś konkretny przykład takiego "wstępnego researachu".
Jeżeli spotkasz się z nieznanym pojęciem to pytanie "czarnej skrzynki" , która nie podaje / odsyła do żadnych źródeł, daje bardzo dużą szansę, że jeśli odpowiedź będzie bzdurą lub będzie zawierać poważne błędy to w ogóle tego nie zauważysz. I dajmy na to popchasz ten wygenerowany 💩 dalej.
I trzeba niestety do znudzenia powtarzać: ten model nie ma żadnej "wiedzy". W takim sensie jak człowiek. Jego "wiedza" się sprowadza do prawdopodobieństwa, że do odpowiedzi na pytanie najbardziej pasuje jakiś ciąg tekstu , który wynika z przeżucia miliardów innych tekstów. I często to prawdopodobieństwo generuje niestniejące ale sensownie brzmiące fakty.
A mniejsze modele to np specjalizowane modele do rozwiązywania konkretnych problemów (np np obrazowanie w medycynie) , które są trenowane po pierwsze na bardzo wąskich tematycznie zbiorach danych a po drugie klasyfikacja danych wejściowych jest robiona przez wysokiej klasy specjalistów w danej dziedzinie a nie jakiś niskoopłacanych anonimowych pracowników których np zatrudniał (oczywiście przez pośredników) OpenAI.

MBudostępnił to.

@piotrek @Michał "rysiek" Woźniak · 🇺🇦 Z linków podanych w tekście najlepiej to pokazuje ten test : https://nitter.lacontrevoie.fr/spiantado/status/1599462375887114240
W kwestii " A jak ktoś celowo formułuje pytania, żeby obejść te zabezpieczenia, no to cóż" to "celowe formułowanie pytań" jest dokładnie tym samym co próba szukania słabych punktów w dowolnym oprogramowaniu, do którego w dodatku nie mamy źródeł (bo tak postanowił producent...). Przecież nie mamy pojęcia do jakich celów i z jakim skutkiem ludzie (firmy, rządy, służby!) będą używać takich modeli LLM. I w jaki sposób formułować pytania. Im więcej takich sprytnych "testów penetracyjnych" z opublikowanymi wynikami tym większa świadomość ryzyka. Bo niestety ale nadzieja, że to zostanie wyeliminowane jest ( przynajmiej u mnie) żadna. Taki bias (rasowy, genderowy, itd) pochodzi z wsadu miliardów różnych danych wejściowych i nie da się go skorygować jakimiś prostymi warunkami typu "jeżeli z odpowiedzi wynika bias "X lepszy od Y" to popraw na "X równe Y" .
@miklo @piotrek jest tu jeszcze inny, głębszy problem.

OpenAI "dwoi się i troi" by filtrować to w publicznie dostępnym narzędziu, bo wie, że to zostanie źle odebrane (i słusznie). I mimo tego dwojenia-trojenia-się, to wychodzi. Te uprzedzenia są w tych modelach wprasowane.

Czy OpenAI "dwoiłoby się i troiło" tak samo, gdyby to było narzędzie wdrożone gdzieś na backendzie? Przykłady systemu z Holandii, czy nieszczęsnego Jareda-grającego-w-lacrosse pokazują, że *nie*. A uprzedzenia by nadal były!

MBudostępnił to.

Ja w ogóle nie jestem pewien, czy tworzenie takich antropomorficznych modeli #AI ma sens.

Sądzę, że nawet gdyby istniały systemy, nie tylko produkujące przekonywający tekst, ale rozumiejący pytania użytkowników, to i tak mogłoby to być nie to, czego chcemy od technologi.

Wydaje mi się, że od technologi oczekujemy, żeby przekraczała pewne ludzkie ograniczenia i wykonywała postawione jej zadania lepiej niż ludzie.

Tymczasem, jeśli będziemy starali się tylko naśladować ludzi, istnieje duże ryzyko, że powielimy też błędy, które oni popełniają.

Przecież ludzie rozumieją zadawana im pytanie, a np. nadal mają uprzedzenia, albo popełniają błędy poznawcze.

Od wyszukiwarki informacji oczekiwałbym, że zrobi mi lepszy fact-checking niż przeciętny człowiek, albo nawet ekspert w danej dziedzinie. To by dopiero była prawdziwa #sztucznaInteligencja

2 użytkowników udostępniło to dalej

@aemstuz

> Wydaje mi się, że od technologi oczekujemy

To jest jednak sedno: kim jest "my" w tym zdaniu?

My, ludzie, społeczeństwo — pewnie. Ale te narzędzia nie są robione przez i dla społeczeństwa.

Te narzędzia są robione przez i dla wielkich firm, które mają na to środki, i chcą "wyautomatyzować" ludzi z pewnych stanowisk.

To strasznie upierdliwe płacić grafikowi, programistce, copywriterowi. Lepiej, żeby to robił niezrzeszony w związku zawodowym, nie chroniony prawem pracy kawałek kodu.

MBudostępnił to.

@aemstuz i nawet jeśli ten kawałek kodu będzie to robił trochę gorzej, co z tego? Ważne, żeby robił to *dużo taniej*.

Jeszcze niezupełnie tak daleko zaszliśmy. Ale jesteśmy blisko, bliziutko.

Więc w międzyczasie nie do końca zadowalające narzędzia wystawia się na publiczny widok, daje się gawiedzi nimi pobawić, znormalizować, udomowić. Jak przyjdzie co do czego, trudno będzie gawiedzi ogarnąć, czemu te "przyjazne", "przydatne" narzędzia, stanowiące "oczywisty postęp", mogą być problematyczne.

MBudostępnił to.

Rozumiem, skąd założenie, że system oparty o LLM jest tańszy od ludzkiego pracownika, ale nie rozumiem, skąd założenie, że nie ma jeszcze tańszych systemów.

Sam napisałeś: "Należałoby zapytać, czy te ogromne modele są w ogóle potrzebne, czy nie lepiej skupić się na modelach mniejszych, wyspecjalizowanych, wymagających mniejszych zbiorów danych treningowych."

Moja hipoteza jest taka, że mniej skomplikowane systemy (nawet niekoniecznie modele AI) mogą być zarówno tańsze, jak i lepsze w wykonywaniu swojej pracy (i być może w konsekwencji także w zastępowaniu ludzi).
@aemstuz prostsze narzędzia nie napiszą marketingowego spamu, nie wygenerują obrazków do użycia w kampanii reklamowej razem z tym spamem.

W Islandii już była pierwsza kampania reklamowa "zaprojektowana w 100% przez AI". Oczywiście bardziej jako proof-of-concept i ciekawostka, ale naprawdę niewiele tym modelom brakuje do faktycznej użyteczności w tym zakresie.

W Polsce jakieś prawicowe środowiska też użyły na jakichś plakatach zdjęcia wygenerowane przez Midjourney chyba.
Zgoda: mogą istnieć pojedyncze zastosowania, gdzie to ma sens.
Właśnie, że pisząc to miałem na myśli biznes 😄

"Wyautomatyzowanie" ludzi to jedno, ale jedyne co w ten sposób osiągną firmy, to obniżenie kosztów. Nie dostarczą w ten sposób konsumentom lepszej jakości.
@Aemstuz :badge: @Michał "rysiek" Woźniak · 🇺🇦 A skąd założenie, że chcą dostarczyć lepszej jakości ? Celem działania firmy jest osiąganie zysku a nie dostarczanie jakiejś (w tym przypadku niemierzalnej) jakości.
Z pewnością będzie mnóstwo firm z sektora kreatywnego które się przejadą na zastąpieniu pracy ludzkiej automatem ale te najwieksze, które są/będa twórcami i właścicielami modeli LLM gro dochodów będa mieć nie od końcowego konsumenta tylko ze hurtowej sprzedaży dostępu do AI/LLM jako narzędzia. A na tym nie da się stracić.

2 użytkowników udostępniło to dalej

@miklo Bo wyższa jakość to możliwość żądania wyższej ceny. Możesz mieć rację, że na takim hurtowym dostępie do systemu AI nie da się stracić. Ale czy nie lepiej zarobić więcej, niż mniej 🙂 ?
@aemstuz @miklo Microsoft zarabia na AI przez to, że infrastruktura OpenAI odpalona jest na MS Azure.

Zarobi więcej, jak więcej ludzi "kupi" hype.

Gdyby jakość była najlepszą metodą "zarabiania więcej", nie musielibyśmy męczyć się z gównoproduktami psującymi się tydzień po gwarancji. I tak samo to działa w produktach technologicznych, zwłaszcza tych od ogromnych firm.

Poczytaj sobie o tym, jak jakość wyszukiwarki Google spadała (i dalej spada).
💯💯💯

Kolega rozumie na czym polega ten biznes 👍

@aemstuz @rysiek
@aemstuz tu jest bardzo mocne założenie, że firmy tej wielkości, zdolne do rozwoju i utrzymywania takich modeli, w ogóle myślą o "dostarczaniu konsumentom lepszej jakości".

Moim zdaniem jest dość przykładów na to, że to założenie jest błędne. Model od lat polega na złapaniu jak największej liczby ludzi w najróżniejsze monopolistyczne pułapki. Tak, by nie mieli oni faktycznego wyboru usługodawcy.

Usługi są coraz gorsze, coraz mniej skupione na nas, użytkowniczkach i użytkownikach.
Coś w tym jest. Ostatecznie Google i Microsoft to monopoliści, w pewnych segmentach rynku. Nie mają presji na tworzenie rzeczywiście dobrych rozwiązań, bo ludzie i tak będą używać ich usług/produktów.
@aemstuz Nie zgodzę się z tym, że nie dostarczą lepszej jakości. Bawiłem się odrobinę AI i uważam, że jest szansa na lepszy, przynajmniej statystycznie, copywriting czy obsługę klienta. Czemu? Bo ludzie się mylą. I bywają niekompetentni.

Próby zastępowania obsługi klienta skryptami na czatach już i tak już są, od lat. Tyle, że obecne skrypty są zwykle żenująco słabe.
@rozie Tylko że te modele też się mylą i bywają niekompetentne. Mamy już sporo przykładów.

Cały problem polega na tym, że one próbują naśladować ludzi. IMHO to nie jest dobra droga do dostarczenia jakość lepszej, niż ludzka.
@aemstuz Obawiam się, że bez konkretów będzie ciężko dalej rozmawiać. ChatGPT radzi sobie całkiem nieźle i to bez zawężania dziedziny czy wręcz ograniczenia do oferty konkretnej firmy. "Na zasadach ogólnych".
Spektakularne wtopy też mu się ofc zdarzają. Nadal, jeśli weźmiemy pod uwagę koszt uzyskania odpowiedzi (od losowej osoby), czas oczekiwania na odpowiedź i jakość tejże - jest ciekawie.

Zresztą - od słów do czynów. Bo my tu gadu gadu, a - powiązany - side project leży.
@aemstuz Od dawna doskonale zdajemy sobie sprawę z uprzedzeń, błędów, uproszczeń. Sęk w tym, że firmy oferujące tego typu rozwiązania i z nich korzystające, wpisują sobie to w koszty. Etyka przegrywa z kalkulatorem.

2 użytkowników udostępniło to dalej

@osobno Moja hipoteza jest taka, że tam nikt tego dokładnie nie liczy… Jest hype na AI to tworzą AI. A skuteczniejsze mogłyby być rozwiązania tańsze.
@osobno Dokładnie. Reklama dźwignią handlu 😒

Ale tak się zastanawiam, ile z tego zostanie za kilka lat, jeśli się okaże, że te „inteligentne” chatboty pozostaną zabawkami i nie spowodują żadnej rewolucji…
@aemstuz Pędzimy w pojeździe i widoki za oknem są rozmyte. Ktoś patrząc z pobocza mógłby nam więcej konkretów opisać. Mniemam, że zmiany zachodzą i mówienie o przełomie jest zasadne.
@aemstuz Niektóre zadania są wykonywane lepiej. Szczególnie, jeśli jako kryteria dodasz czas uzyskania wyniku i koszt. Znaczy jeśli chcę uzyskać jakieś informacje o ofercie i mam do wyboru poprawną odpowiedź w ciągu sekund, albo samodzielne szukanie na stronie, albo wiszenie na telefonie, by skontaktować się z obsługą, to wybieram wersję AI jako lepszą.

Zgadzam się, że nie do wszystkich zastosowań się to nadaje. Ale mamy raczej początek, niż końcowy efekt.
@rozie Tylko że samodzielne szukanie na stornie, o ile jest na niej dobra wyszukiwarka, trwa tyle samo, albo nieznacznie więcej, za to jest tańsze we wdrożeniu od chatbota.
@aemstuz Niekoniecznie, bo część informacji dostępna jest[1] tylko w regulaminach, często w więcej niż jednym dokumencie.

No i pokaż mi jakąkolwiek wyszukiwarkę, która poradzi sobie z "w grudniu zeszłego roku podpisałem umowę terminową pakiet X na internet na 2 lata. słyszałem, że jest nowa oferta Y. kiedy najwcześniej mogę zmienić pakiet na Y bez dodatkowych kosztów?"

Wydaje mi się, że chatGPT może poradzić sobie z pytaniem i dać poprawna odp.

[1] Czyli nie jest dostępna od ręki.
@rozie @aemstuz jestem przekonany, że do takiego zadania wystarczy znacznie mniejszy model wytrenowany na znacznie mniejszym, lepiej opracowanym zestawie danych, niż *cały Internet*.
@aemstuz Z tym "ludzie rozumieją pytanie" - teoretycznie tak. Często tylko wydaje im się, że je rozumieją. Albo w ogóle nie rozumieją.

Bo czy pani z biura obsługi klienta wiodącego operatora sieci komórkowej, gdzie spędziłem ponad godzinę robiąc cesję numeru i jakieś 3 razy pytałem się upewniając, czy wszystkie warunki i cena pozostają bez zmian rozumiała pytanie? Sądząc po efektach jej działań - wątpię. Szczęśliwie umowa była na czas nieokreślony - przeniosłem numer.
Świetnie - jak zawsze - napisane.
Ciekawy artykuł, o działaniu ChatGPT popełnił również Stephen Wolfram: https://writings.stephenwolfram.com/2023/02/what-is-chatgpt-doing-and-why-does-it-work/

Przykłady prezentuje na bazie swojego flagowego produktu, ale robi to - moim zdaniem - dobrze.

MBudostępnił to.

@kukrak fajny artykuł, właściwie to spory wykład. Dzięk!