Dziś w #OkoPress mój tekst o #ChatGPT i "sztucznej inteligencji":
https://oko.press/chatgpt-cala-prawda-o-wielkich-modelach-jezykowych
> Antropomorfizacja modeli uczenia maszynowego, takich jak ChatGPT, ma na celu przekonanie nas, że nawet jeśli te technologie nie są całkowicie bezpieczne i nieszkodliwe, to są przynajmniej neutralne. Po to, by trudniej było nam dostrzec, jaką mogą wyrządzać krzywdę
> Warto przyjrzeć się bliżej zakodowanym w nich uprzedzeniom i temu, komu służą — a kogo mogą krzywdzić.
1/🧵
https://oko.press/chatgpt-cala-prawda-o-wielkich-modelach-jezykowych
> Antropomorfizacja modeli uczenia maszynowego, takich jak ChatGPT, ma na celu przekonanie nas, że nawet jeśli te technologie nie są całkowicie bezpieczne i nieszkodliwe, to są przynajmniej neutralne. Po to, by trudniej było nam dostrzec, jaką mogą wyrządzać krzywdę
> Warto przyjrzeć się bliżej zakodowanym w nich uprzedzeniom i temu, komu służą — a kogo mogą krzywdzić.
1/🧵
Ten wpis został zedytowany (2 lata temu)
kravietz 🦇 lubi to.
7 użytkowników udostępniło to dalej
Michał "rysiek" Woźniak · 🇺🇦
•Sprawdzam, skąd w tych modelach tyle uprzedzeń i stereotypów. Pytam, skąd biorą się dane, na których są trenowane, kto je dobiera i kategoryzuje. Rozmawiam o konsekwencjach tych decyzji.
#ChatGPT
2/🧵
MBudostępnił to.
Michał "rysiek" Woźniak · 🇺🇦
•Przyglądam się też temu, kto na tych modelach (i z tych modeli) korzysta (rozwinięta, biała Globalna Północ), a kto mierzy się z konsekwencjami ich trenowania i ich uprzedzonych decyzji.
Można inaczej. W mniejszych modelach łatwiej uniknąć wielu z tych problemów. Ale trudnien nimi zbajerować opinię publiczną…
#ChatGPT
3/🧵
2 użytkowników udostępniło to dalej
MB i andrzej_jozwikudostępnił to.
dancing in dystopia
•Michał "rysiek" Woźniak · 🇺🇦
•- Excavating AI. The Politics of Images in Machine Learning Training Sets
https://excavating.ai/
- On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? 🦜
https://dl.acm.org/doi/10.1145/3442188.3445922
Trzy autorki (z czterech) są na fedi — @timnitGebru, @emilymbender, @mmitchell_ai
- To Live in Their Utopia: Why Algorithmic Systems Create Absurd Outcomes
https://ali-alkhatib.com/papers/chi/utopia/utopia.pdf
autorowi @ali dziękuję za wywiad do tekstu!
🧵/koniec
Excavating AI
-MiKlo:~/citizen4.eu$💙💛 lubi to.
MBudostępnił to.
Radek Czajka
•Widziałem też metaforę, że to co robi chatgpt to raczej po prostu bullshitting (ton absolutnej pewności siebie do kompletnych głupot, coś jak typowy absolwent Eton) niż manspaining (który oczywiście zawiera bullshitting, ale też parę innych elementów).
@rysiek
Michał "rysiek" Woźniak · 🇺🇦
•Tak, jest pytanie o ambicję, miałem z tym rozkminę. Problem w tym, że jeśli się to uprości za bardzo, po prostu nie da się o pewnych kwestiach sensownie rozmawiać.
Mam wiarę w mainstreamowych odbiorców. Staram się upraszczać tam, gdzie to konieczne i wyjaśniać tam, gdzie się nie da uprościć. Wierzę, że takie podejście działa — a Oko zdaje się podzielać moją wiarę w tym zakresie. 😃
Metafor jest dużo. Moja ulubiona na razie to chyba "ChatGPT is a blurry JPEG of the Web".
steelman
•ChatGPT Is a Blurry JPEG of the Web
Ted Chiang (The New Yorker)Michał "rysiek" Woźniak · 🇺🇦udostępnił to.
andrzej_jozwik
•The AI Chatbot in Your Workplace: Efficient, Bossy, Dehumanizing
Lisa Bannon (The Wall Street Journal)Michał "rysiek" Woźniak · 🇺🇦udostępnił to.
piotrek
•Kwestia ekologii: no to co, mamy zrezygnować z postępu technologicznego? Nie jeździć samochodami, nie latać samolotami? Biedniejsze kraje też mniej korzystają z tych dobrodziejstw przypominam.
I wreszcie kwestia poprawności informacji. LLM mylą się, tak, ale porozmawiaj sobie czasem z przeciętnym człowiekiem na ulicy, wtedy się dopiero przerazisz ;)
Michał "rysiek" Woźniak · 🇺🇦
•> Modele są uczone na danych z internetu są więc odbiciem nas samych. Więc może to nie w modelach problem?
No pewnie, przecież o tym piszę. Problem w danych, w ich doborze, w ich opisie. Nie zmienia to faktu, że jest to problem, i że twórcy tych narzędzi muszą się bardziej postarać ten problem rozwiązać.
MBudostępnił to.
Michał "rysiek" Woźniak · 🇺🇦
•> OpenAI dwoi się i troi żeby je odfiltrować (o czym z resztą sam wspomniałeś)
Ale "odfiltrowywanie" tych uprzedzeń po wytrenowaniu uprzedzonego modelu to zamiatanie kwestii pod dywan. Zamiast tego, należałoby się skupić na trenowaniu modeli tak, żeby nie były uprzedzone. To jednak wymaga więcej pracy i generuje większe koszty. Więc po co się starać?
Lepiej zamieść pod dywan, przekonać ludzi, że kwestionowanie tych narzędzi to "rezygnowanie z postępu". Taniej. Kasa musi się zgadzać.
MBudostępnił to.
Michał "rysiek" Woźniak · 🇺🇦
•Identyfikowanie ogromnych modeli językowych z "postępem" dziś to jak identyfikowanie ogromnych samolotów śmigłowych z postępem w latach 1940.
https://www.youtube.com/watch?v=i-AZRtI366w
Wtedy okazało się, że nie tędy droga. I dziś może się tak okaże.
This Giant Airliner Even Had A Movie Theater: The Bristol Brabazon
YouTubeMBudostępnił to.
Michał "rysiek" Woźniak · 🇺🇦
•> LLM mylą się, tak, ale porozmawiaj sobie czasem z przeciętnym człowiekiem na ulicy, wtedy się dopiero przerazisz
To po co budować takie narzędzie, skoro można po prostu posadzić Zdziśka z rogu Marszałkowskiej przed komputerem i płacić za bullshitting losowych rozmówców?
Argument z "a bo ludzie też się mylą" to nie argument *za* budowaniem narzędzia, które nie ulepsza sprawy. Wręcz przeciwnie, to argument za tym, by zastanowić się, czy nie lepiej skupić się na czymś innym.
MBudostępnił to.
piotrek
•Dlaczego to działa tak dobrze? Bo taki model, z racji swojej wielkości,ma niesamowicie rozległą wiedzę. Nawet jeśli czasem źle skojarzy fakty, dla mnie to nie ma znaczenia, bo pytając o to samo człowieka na forum też nie mam gwarancji że odpowie mi dobrze. Ja i tak używam tego tylko do załapania ogólnej koncepcji i słów kluczowych o które warto odpytać Google.
Pisałeś o trenowaniu "mniejszych modeli" ale ciężko mi się do tego odnieść bo nie mogę znaleźć żadnego przykładu. Ograniczenie zbiorów danych raczej nie wpłynie pozytywnie na poprawność odpowiedzi, a i ograniczy przydatność tego narzędzia w zastosowaniu streszczania. Co do ekologii jeszcze to pamiętaj że nie każdy model uczy się od zera. Raz wytrenowany model można użyć do trenowania innych, o węższych zastosowaniach (fine-tuning to się nazywa) co znacznie ogranicza zapotrzebowanie na moc obliczeniową.
Michał "rysiek" Woźniak · 🇺🇦
•Skupiasz się na konkretnym zastosowaniu, w którym konkretny model znajdujesz przydatnym. Ja piszę ogólnie o problemach związanych z takimi ogromnymi modelami, bo były, są, i będą używane do innych rzeczy, w sposób, który będzie powodował i już powoduje wymierne szkody.
"Piła łańcuchowa przydaje mi się w ogrodzie" to słaby argument za tym, by każdy, zawsze miał dostęp do pił łańcuchowych.
MBudostępnił to.
MiKlo:~/citizen4.eu$💙💛
Podaj jakiś konkretny przykład takiego "wstępnego researachu".
Jeżeli spotkasz się z nieznanym pojęciem to pytanie "czarnej skrzynki" , która nie podaje / odsyła do żadnych źródeł, daje bardzo dużą szansę, że jeśli odpowiedź będzie bzdurą lub będzie zawierać poważne błędy to w ogóle tego nie zauważysz. I dajmy na to popchasz ten wygenerowany 💩 dalej.
I trzeba niestety do znudzenia powtarzać: ten model nie ma żadnej "wiedzy". W takim sensie jak człowiek. Jego "wiedza" się sprowadza do prawdopodobieństwa, że do odpowiedzi na pytanie najbardziej pasuje jakiś ciąg tekstu , który wynika z przeżucia miliardów innych tekstów. I często to prawdopodobieństwo generuje niestniejące ale sensownie brzmiące fakty.
A mniejsze modele to np specjalizowane modele do rozwiązywania konkretnych problemów (np np obrazowanie w medycynie) , które są trenowane po pierwsze na bardzo wąskich tematycznie zbiorach danych a po drugie klasyfikacja danych wejściowych jest robiona przez wysokiej klasy specjalistów w danej dziedzinie a nie jakiś niskoopłacanych anonimowych pracowników których np zatrudniał (oczywiście przez pośredników) OpenAI.
MB lubi to.
MBudostępnił to.
MiKlo:~/citizen4.eu$💙💛
W kwestii " A jak ktoś celowo formułuje pytania, żeby obejść te zabezpieczenia, no to cóż" to "celowe formułowanie pytań" jest dokładnie tym samym co próba szukania słabych punktów w dowolnym oprogramowaniu, do którego w dodatku nie mamy źródeł (bo tak postanowił producent...). Przecież nie mamy pojęcia do jakich celów i z jakim skutkiem ludzie (firmy, rządy, służby!) będą używać takich modeli LLM. I w jaki sposób formułować pytania. Im więcej takich sprytnych "testów penetracyjnych" z opublikowanymi wynikami tym większa świadomość ryzyka. Bo niestety ale nadzieja, że to zostanie wyeliminowane jest ( przynajmiej u mnie) żadna. Taki bias (rasowy, genderowy, itd) pochodzi z wsadu miliardów różnych danych wejściowych i nie da się go skorygować jakimiś prostymi warunkami typu "jeżeli z odpowiedzi wynika bias "X lepszy od Y" to popraw na "X równe Y" .
m0bi lubi to.
Michał "rysiek" Woźniak · 🇺🇦
•OpenAI "dwoi się i troi" by filtrować to w publicznie dostępnym narzędziu, bo wie, że to zostanie źle odebrane (i słusznie). I mimo tego dwojenia-trojenia-się, to wychodzi. Te uprzedzenia są w tych modelach wprasowane.
Czy OpenAI "dwoiłoby się i troiło" tak samo, gdyby to było narzędzie wdrożone gdzieś na backendzie? Przykłady systemu z Holandii, czy nieszczęsnego Jareda-grającego-w-lacrosse pokazują, że *nie*. A uprzedzenia by nadal były!
MBudostępnił to.
Aemstuz
•Sądzę, że nawet gdyby istniały systemy, nie tylko produkujące przekonywający tekst, ale rozumiejący pytania użytkowników, to i tak mogłoby to być nie to, czego chcemy od technologi.
Wydaje mi się, że od technologi oczekujemy, żeby przekraczała pewne ludzkie ograniczenia i wykonywała postawione jej zadania lepiej niż ludzie.
Tymczasem, jeśli będziemy starali się tylko naśladować ludzi, istnieje duże ryzyko, że powielimy też błędy, które oni popełniają.
Przecież ludzie rozumieją zadawana im pytanie, a np. nadal mają uprzedzenia, albo popełniają błędy poznawcze.
Od wyszukiwarki informacji oczekiwałbym, że zrobi mi lepszy fact-checking niż przeciętny człowiek, albo nawet ekspert w danej dziedzinie. To by dopiero była prawdziwa #sztucznaInteligencja
2 użytkowników udostępniło to dalej
Michał "rysiek" Woźniak · 🇺🇦 i MBudostępnił to.
Michał "rysiek" Woźniak · 🇺🇦
•> Wydaje mi się, że od technologi oczekujemy
To jest jednak sedno: kim jest "my" w tym zdaniu?
My, ludzie, społeczeństwo — pewnie. Ale te narzędzia nie są robione przez i dla społeczeństwa.
Te narzędzia są robione przez i dla wielkich firm, które mają na to środki, i chcą "wyautomatyzować" ludzi z pewnych stanowisk.
To strasznie upierdliwe płacić grafikowi, programistce, copywriterowi. Lepiej, żeby to robił niezrzeszony w związku zawodowym, nie chroniony prawem pracy kawałek kodu.
MBudostępnił to.
Michał "rysiek" Woźniak · 🇺🇦
•Jeszcze niezupełnie tak daleko zaszliśmy. Ale jesteśmy blisko, bliziutko.
Więc w międzyczasie nie do końca zadowalające narzędzia wystawia się na publiczny widok, daje się gawiedzi nimi pobawić, znormalizować, udomowić. Jak przyjdzie co do czego, trudno będzie gawiedzi ogarnąć, czemu te "przyjazne", "przydatne" narzędzia, stanowiące "oczywisty postęp", mogą być problematyczne.
MBudostępnił to.
Aemstuz
•Sam napisałeś: "Należałoby zapytać, czy te ogromne modele są w ogóle potrzebne, czy nie lepiej skupić się na modelach mniejszych, wyspecjalizowanych, wymagających mniejszych zbiorów danych treningowych."
Moja hipoteza jest taka, że mniej skomplikowane systemy (nawet niekoniecznie modele AI) mogą być zarówno tańsze, jak i lepsze w wykonywaniu swojej pracy (i być może w konsekwencji także w zastępowaniu ludzi).
Michał "rysiek" Woźniak · 🇺🇦
•W Islandii już była pierwsza kampania reklamowa "zaprojektowana w 100% przez AI". Oczywiście bardziej jako proof-of-concept i ciekawostka, ale naprawdę niewiele tym modelom brakuje do faktycznej użyteczności w tym zakresie.
W Polsce jakieś prawicowe środowiska też użyły na jakichś plakatach zdjęcia wygenerowane przez Midjourney chyba.
Aemstuz
•Aemstuz
•"Wyautomatyzowanie" ludzi to jedno, ale jedyne co w ten sposób osiągną firmy, to obniżenie kosztów. Nie dostarczą w ten sposób konsumentom lepszej jakości.
MiKlo:~/citizen4.eu$💙💛
Z pewnością będzie mnóstwo firm z sektora kreatywnego które się przejadą na zastąpieniu pracy ludzkiej automatem ale te najwieksze, które są/będa twórcami i właścicielami modeli LLM gro dochodów będa mieć nie od końcowego konsumenta tylko ze hurtowej sprzedaży dostępu do AI/LLM jako narzędzia. A na tym nie da się stracić.
5 ludzi lubi to
kravietz 🦇, MB, Michał "rysiek" Woźniak · 🇺🇦, Makary i Enkiusz🇺🇦 lubię to.
2 użytkowników udostępniło to dalej
MB i Michał "rysiek" Woźniak · 🇺🇦udostępnił to.
Aemstuz
•Michał "rysiek" Woźniak · 🇺🇦
•Zarobi więcej, jak więcej ludzi "kupi" hype.
Gdyby jakość była najlepszą metodą "zarabiania więcej", nie musielibyśmy męczyć się z gównoproduktami psującymi się tydzień po gwarancji. I tak samo to działa w produktach technologicznych, zwłaszcza tych od ogromnych firm.
Poczytaj sobie o tym, jak jakość wyszukiwarki Google spadała (i dalej spada).
kravietz 🦇
•Kolega rozumie na czym polega ten biznes 👍
@aemstuz @rysiek
Michał "rysiek" Woźniak · 🇺🇦
•Moim zdaniem jest dość przykładów na to, że to założenie jest błędne. Model od lat polega na złapaniu jak największej liczby ludzi w najróżniejsze monopolistyczne pułapki. Tak, by nie mieli oni faktycznego wyboru usługodawcy.
Usługi są coraz gorsze, coraz mniej skupione na nas, użytkowniczkach i użytkownikach.
Aemstuz
•rozie
•Próby zastępowania obsługi klienta skryptami na czatach już i tak już są, od lat. Tyle, że obecne skrypty są zwykle żenująco słabe.
Michał "rysiek" Woźniak · 🇺🇦udostępnił to.
Aemstuz
•Cały problem polega na tym, że one próbują naśladować ludzi. IMHO to nie jest dobra droga do dostarczenia jakość lepszej, niż ludzka.
rozie
•Spektakularne wtopy też mu się ofc zdarzają. Nadal, jeśli weźmiemy pod uwagę koszt uzyskania odpowiedzi (od losowej osoby), czas oczekiwania na odpowiedź i jakość tejże - jest ciekawie.
Zresztą - od słów do czynów. Bo my tu gadu gadu, a - powiązany - side project leży.
andrzej_jozwik
•2 użytkowników udostępniło to dalej
Michał "rysiek" Woźniak · 🇺🇦 i MBudostępnił to.
Aemstuz
•Michał "rysiek" Woźniak · 🇺🇦udostępnił to.
Michał "rysiek" Woźniak · 🇺🇦
•Aemstuz
•Ale tak się zastanawiam, ile z tego zostanie za kilka lat, jeśli się okaże, że te „inteligentne” chatboty pozostaną zabawkami i nie spowodują żadnej rewolucji…
Michał "rysiek" Woźniak · 🇺🇦
•https://en.wikipedia.org/wiki/Gartner_hype_cycle
andrzej_jozwik
•rozie
•Zgadzam się, że nie do wszystkich zastosowań się to nadaje. Ale mamy raczej początek, niż końcowy efekt.
Aemstuz
•Michał "rysiek" Woźniak · 🇺🇦
•rozie
•No i pokaż mi jakąkolwiek wyszukiwarkę, która poradzi sobie z "w grudniu zeszłego roku podpisałem umowę terminową pakiet X na internet na 2 lata. słyszałem, że jest nowa oferta Y. kiedy najwcześniej mogę zmienić pakiet na Y bez dodatkowych kosztów?"
Wydaje mi się, że chatGPT może poradzić sobie z pytaniem i dać poprawna odp.
[1] Czyli nie jest dostępna od ręki.
Michał "rysiek" Woźniak · 🇺🇦
•rozie
•Bo czy pani z biura obsługi klienta wiodącego operatora sieci komórkowej, gdzie spędziłem ponad godzinę robiąc cesję numeru i jakieś 3 razy pytałem się upewniając, czy wszystkie warunki i cena pozostają bez zmian rozumiała pytanie? Sądząc po efektach jej działań - wątpię. Szczęśliwie umowa była na czas nieokreślony - przeniosłem numer.
Jakub
•Ciekawy artykuł, o działaniu ChatGPT popełnił również Stephen Wolfram: https://writings.stephenwolfram.com/2023/02/what-is-chatgpt-doing-and-why-does-it-work/
Przykłady prezentuje na bazie swojego flagowego produktu, ale robi to - moim zdaniem - dobrze.
What Is ChatGPT Doing … and Why Does It Work?—Stephen Wolfram Writings
writings.stephenwolfram.comMBudostępnił to.
Michał "rysiek" Woźniak · 🇺🇦
•MB
•