Bolesław Breczko: Czy wykorzystujesz generatywną sztuczną inteligencję w swojej pracy, hobby albo do innych celów?
Steve Nouri, twórca platformy informacyjnej Generative AI: Tak, każdego dnia. ChatGPT to najlepszy asystent, którego używam codziennie do pracy - do pomocy w pisaniu szkiców tekstów i podsumowań, tworzeniu bulletpointów do prezentacji czy pisaniu maili. Oprócz tego nasza firma opiera na ChatGPT swój model biznesowy.
W jaki sposób?
Przy obecnej ilości informacji, jakie bombardują nas każdego dnia 24 godziny na dobę, jest po prostu za mało czasu, żeby być ze wszystkim na bieżąco. Jesteśmy firmą generującą treści, wykorzystujemy ChatGPT do wybierania najciekawszych wiadomości ze świata i pisania podsumowań z wydarzeń, które dzieją się na całym świecie.
Wszystkie komentarze
Celnie :)
Tak, a ponieważ obecnie generowane treści przez AI są niskiej jakości, to AI przyszłości będzie się uczyć na tych tekstach. Błędne koło.
Racja, my to jedynie przetwarzamy. Jesteśmy AI dla AI.
Wszystkie internetowe wynalazki działają tak długo dopóki jest prąd. Unieruchomienie dużej elektrowni na trzy dni sprawi że największym wyzwaniem stanie się przeżycie do następnego dnia.
To tak jak z robotami w fabrykach. Jak już zwolnią wszystkich operatorów i zastąpią ich robotami to kto będzie kupował wytwory z tych fabryk?
Treści i czytanie ich to jest promil zastosowań dla AI, o których mówi ten człowiek.
Nie tylko "internetowe wynalazki", wszystko od produkcji i przechowywania żywności po wodociągi i kanalizację opiera się na prądzie. Bez niego cywilizacja upadnie w miesiąc.
"Ten człowiek" to "twórca firm z obszaru AI". Jak myślisz - co on może mówić o AI? Że to piękna, wielka wydmuszka, na której wszyscy w ciągu kilku lat dacie d u p y, ale ja zarobię?
Miesiac? Bez wody można przeżyć tylko trzy dni.
1. Żarcie i rozrywka.
2. Udowodnij, że nie jesteś botem.
Za chwilę i ta możliwość zniknie. Jak 30 lat temu pracowałem na call center to wszyscy mieli normalne umowy o pracę, rotacja nie była duża. Ludzie chętnie odbierali telefony i byli dosyć mili. A teraz to najbardziej śmieciowa i stresująca praca, która prędzej czy później zostanie zastąpiona botami. I na nich klienci będą mogli wyładowywać frustrację.
Dopóty dopóki sam konsultant nie okaże się być również AI.
Dalej tak będzie, tylko dyskusja wstępna będzie dużo dłuższa, zanim AI da się przekonać, że jednak nie rozwiąże naszego problemu.
Lem pisał o tym jako o "wyszalniach" gdzie się można wyszaleć rozładowując frustracje
Miałem ostatnio taki irytujący przypadek. Bot firmy kurierskiej blokował mi dostęp do konsultanta i wmawiał mi, że jest w stanie sam mi pomóc, podczas gdy właśnie w tej skomplikowanej sprawie nie potrafił. Musiałem w końcu użyć podstępu, żeby się przebić. Trochę czarno widzę sytuację, w której już nikt białkowy nie będzie czekał przy telefonie. Klienci się wściekną.
I dlatego trzeba pilnować, żeby rynki nie były zoligopolizowane. Bo firmę kurierską możesz wybrać inną.
Ale jak się Microsoft, Apple, Dell, HP itp. dogadały w sprawie zastąpienia specjalistów od supportu Hindusem z algorytmem na karteczce, a następnie Hindusa - sztuczną inteligencją, to można im skoczyć na puklerz. Wyboru nima. Mogą robić - co chcą.
Przez bota przebiją się tylko najbardziej inteligentni:-)
Czyli wykonujesz tzw. bullshit-job, który nie jest nikomu potrzebny i nie wytwarza żadnej wartości - jest synekurą. Im firma jest większa, tym więcej jest w niej synekur. W małych firmach nie ma ich wcale, bo nie mogą one sobie na to pozwolić. Prywatne korporacje niczym się pod tym względem nie różnią od urzędów. Pasożytujesz na ludziach, którzy w twoich firmach faktycznie coś tworzą. Nie wątpię, że zastąpi cię ChatGPT, bo pisać bullshit to on potrafi.
Natomiast w pracy twórczej, do której wymagana jest specjalizacja, i w której potrzebne są dane, które nie są dostępne publicznie, więc modele AI ich nie znają, ChatGPT jest niezbyt przydatnym wynalazkiem.
Jestem programistą i ChatGPT potrafi za mnie co najwyżej pisać komentarze albo przejąć najbardziej powtarzalne zadania. Inaczej mówiąc nie pomaga mi bardziej niż Google+Stackoverflow.
Ponadto ignoruje się jedną ważną sprawę - odpowiedzialność. Potraficie sobie wyobrazić sytuację, w której technicy z centrali banku pytają programistów z firmy produkującej oprogramowanie, "jak zabezpieczacie bezpieczeństwo w naszych aplikacjach?", na co programiście odpowiadają "nie mamy pojęcia, AI zabezpiecza"?
"zabezpieczacie bezpieczeństwo"
Przyganiał kocioł garnkowi.
>> Przyganiał kocioł garnkowi.
Baba z wozu, koniom lżej. Kto rano wstaje, temu Pan Bóg daje. Znasz jeszcze jakieś powiedzonka, które nie mają w tym kontekście sensu?
To jest pisany na kolanie komentarz, a nie artykuł w poczytnej gazecie, więc błędy się zdarzają. Poza tym zwolniłem ostatnio mój dział korekty.
moim zdaniem sytuacja nie jest tak jednoznaczna, jak ja przedstawiasz.
dane ktore nie sa publicznie dostepne latwo do czata wprowadzic.
jesli chodzi o programowanie, byc moze Tobie AI nie pomaga, ale wielu praktykow twierdzi ze czat i autopilot pomagaja bardzo. po pierwsze, czat produkuje cale bloki kodu ktore mozna dostosowac do wlasnego problemu wydajac czatowi kolejne instrukcje, a to juz duzo wiecej niz google. po drugie, autopilot uzupelnia cale linie "oczywistych" instrukcji, ktorych w kodzie zwykle jest duzo, nawet jesli problem jest malo trywialny.
Te bloki kodu charakteryzują się tym, że są pełne błedów.
Kiedy biorę odpowiedź ze Stackoverflow, to zazwyczaj wiem, że ona u kogoś działała. Oczywiście nie znaczy to, że zadziała u mnie, bo może mam inne wersje oprogramowania, albo mam inne środowisko, ale jednak zazwyczaj działa.
ChatGPT absolutnie nie radzi sobie z zupełnie prostymi rzeczami, kiedy wymagana jest wiedza specjalistyczna. Pracuję często z biblioteką do tworzenia map OpenLayers. Wygenerowane przez ChatGPT podpowiedzi są pełne błędów, więc potrzebuję więcej czasu, żeby je znaleźć i poprawić, niż samemu na podstawie dokumentacji kod napisać od początku. A biblioteka OpenLayers jest opensource i jest dostępna publicznie, więc wyobraź sobie, jak to jest, kiedy masz do czynienia z wiedzą ustalaną na podstawie wytycznych, które zmieniają się co roku i nie są dostępne publicznie.
ChatGPT może stworzyć szkielet projektu. Może stworzyć jakąś prostą aplikację, która wykonuje czynności powtarzalne. Może zastąpić outsourcing z Indii, chociaż mam wątpliwości, czy Hindusi i tak nie są tańsi od specjalistów do programowania z ChatemGPT.
Zapewne jako programista masz inną perspektywę, ale AI jest przydatna nie tylko w bullshit job. Obecnie obserwujemy silny trend do używania AI a pracy naukowej - nie, jak to się przedstawia w sensacyjnych materiałach, do oszustw i pisania prac, ale do szeregu innych działań, które można zautomatyzować. AI jest używana np. burzy mózgów, inteligentnego przeszukiwania publikacji i ich streszczania, analizy danych. Tak, ChatGPT ma narzędzia do analizy i wizualizacji danych. Robi to błyskawicznie. Umiejętnie stosowana AI może nie tylko podnieść jakość badań, ale przede wszystkim zwolnić zasoby naukowców - przewiduje się, że dzięki jej stosowaniu rozwój nauki przyspieszy, bo naukowcy nie będą poświęcać mnóstwa czasu na działania, które można bez problemu zautomatyzować, a swoje zasoby przeznaczą dzięki temu na twórczą pracę, która będzie przebiegała o wiele szybciej.
Jak sam czytasz artykuły, to w pewnym momencie możesz mieć błysk "A ja bym to zrobił inaczej" albo "Gdyby to lekko zmodyfikować, to można to połączyć z tym czym co robiłem ostatnio". Jak dostajesz gotowe streszczenie, to masz nikłe szanse na taką refleksję.
Dlatego w przyszłości nie będziesz programistą, lecz testerem wyszukującym błędy AI i raportującym do AI.
Ale to nie działa jak czytanie streszczeń zamiast lektur w szkole. Streszczenia są po to, żeby ogólnie wiedzieć co jest w danej publikacji. Możesz określić, co cię interesuje (np. metody, liczebność próby) i na tej podstawie zrobić wstępną selekcję. Zwykłe wyszukiwania zwracają gigatony słabo przesianych wyników, a publikacji przybywa w geometrycznym tempie. Wstępne odsianie na podstawie streszczeń pozwala wybrać prace, które przeczytasz.
a Domino's tego przypadkiem nie opatentowało? Bo smak i konsytencja ich pizzy by to sugerowały
Dominos poszło o krok dalej i zamiast sera używa kleju.
Made my day, dzięki!
to po bułgarsku?
czy dialekt z Napierstkowa?
Serio nigdy nie widziałaś Brudnego Harry'ego, punk?
Walisz ślepakami, bo wydaje Ci się, że to zjawisko prymitywnych wtrąceń językowych. Ale to nie ten przypadek.
Poraża mnie poziom komentarzy pod tym tekstem. To są mądrości "chłopka roztropka", jednak po czytelnikach wyborcza.pl trochę więcej się spodziewam.
Przede wszystkim AI może przyczynić się do gwałtownej koncentracji kapitału, kto jest właścicielem programu ten czerpie zyski, a część ludzi, którzy wykonywali dobrze płatne zawody stanie się wyrobnikami. Chyba, że będziemy mieli rewolucję w opodatkowaniu i dzieleniu dochodów
>> AI może przyczynić się do gwałtownej koncentracji kapitału, kto jest właścicielem programu ten czerpie zyski, a część ludzi, którzy wykonywali dobrze płatne zawody stanie się wyrobnikami
Większej koncentracji niż GAFAM i tak nie będzie. I tak każde z nich za chwile będzie miało własną AI. A wyścig pójdzie w specjalizacje, bo ta "ogólna" AI do o kant d u p y rozbić, oprócz pisania wypracować dla gimnazjalistów.
Część ludzi wykonujących dobrze płatne zawody staje się zbędna z każdym wynalazkiem: pompa, silnik parowy, elektryczność,półprzewodniki.
AI to jest jak wynalezienie koła, maszyny parowej, elektryczności i internetu. RAZEM.
Zgadzam się z przedmówcą. Ogromna większość komentarzy to prostackie wyśmiewanie, kompletnie bez zrozumienia istoty problemu.
Jestem najgłębiej przekonany, że to jest fundamentalna zmiana dla ludzkości. Po prostu, stworzyliśmy sobie boga, i to dla odmiany takiego, który istnieje naprawdę i działa.
Może kiedyś. Na razie to stworzyliśmy sobie bystrzejszą papugę.
Fundamentalność tej zmiany łatwo poddać testowi. Wyobraźmy sobie, że jutro ta AI znika. I jej nie ma. Jak bardzo to dotyka ludzkość? Meh...
A dajmy na to, znika GPS.
No i to jest odpowiedź na fundamentalność znaczenia jednego i drugiego.
„Jak bardzo to dotyka ludzkość?”
No bardzo, bo dziunia z haeru nie będzie mogła zrobić tak szybko swojej zarąbistej bullshit-prezentacyjki z mnóstwem wykresików dla grona krawaciarzy zgromadzonych przy prostokątnym stole.
Owszem, ale wcześniej cię wysterylizuje żebyś się niepotrzebnie nie rozmnażał ;-)
Kolejny kapłan religii AI.
jak tam autonomiczne samochody się sprawują?
nie chodzi o to, jak dobre jest AI.
Chodzi o to, jak słabi są dziś lekarze.
Lekarze nie są słabi. Słaby jest system pracy premiujący za pięciu pacjentów na godzinę, a nie za skuteczność leczenia.
Geniusze menedżmentu rzącący Medicoverami na pewno się już ślinią marząc o zastąpieniu lekarzy gadżetem, który będzie mógł obsługiwać 20 pacjentów na godzinę.
A NFZ zmieni się w bankomat ;-D
Roboty pracują w fabrykach, ale w bieganiu są kiepskie. To, że jakieś ogólnie określone narzędzie jest słabe w jednym zastosowaniu, nie oznacza, że nie może być dobre w innym.
A około 10 lat temu, mówiono, że za 5 lat będziemy mieli AI prowadzącą za nas samochody. No i - jest jak jest. Także w nowomowie różnych mędrków "za 5 lat" oznacza "może kiedyś".
Celnie! AI potrafiłaby prowadzić już samochody. Ale tego nie robi z jednego prostego powodu: odpowiedzialności. Nie wiemy dokładnie, na podstawie jakich danych AI podejmuje decyzje.
Może się zdarzyć, że w 0,001% sytuacji samochód zdecyduje się wjechać w grupkę dzieci, żeby uniknąć banalnej stłuczki. I kto będzie za to odpowiedzialny? Podobne przypadki już się zdarzały.
Ludzie mają potrzebę wiedzieć, kto jest odpowiedzialny za tragedie i katastrofy. Więc nawet jeśli AI będzie statystycznie zabijać mniej ludzi na drogach niż normalni kierowcy (co pewnie jest już od kilku lat możliwe), to i tak nie zdadzą się na AI, bo odpowiedzialność jest w takich przypadkach zbyt rozproszona.
Podobnie jest z lekarzami i prawnikami. AI będzie im na pewno pomagać, ale nie będzie wykonywać za nich pracy.
Co do lekarzy to byłbym sceptyczny. Swego czasu (kilka lat temu) IBM miał projekt Watson który miał być (między innymi) używany do automatycznej analizy zdjęć RTG. Po kilku latach projekt, o ile mi wiadomo, ze względu na kompletne bzdury które wychodziły z tych analiz, został zamknięty.
Bardzo możliwe. Wynika to z prostego faktu, że dokumentacja medyczna na Zachodzie jest chroniona i nie można nią karmić żadnego ChataGPT ani innego modelu. W takich specjalistycznych dziedzinach modelom po prostu brak jest specjalistycznych danych, bo nie można ich wygooglować.
To były próby kliniczne, w szpitalach, na rzeczywistych przypadkach - bardzo niewiele z tego co generowała AI odpowiadało rzeczywistości.
To ciekawe, ale fakty nie powstrzymają kapłanów AI przed głoszeniem ich religii. Za tym stoją setki miliardów dolarów ukrytych w akcjach firm, których wartość wzrosła i rośnie dalej dzięki tej propagandzie.
>>AI potrafiłaby prowadzić już samochody.
Nie, nie potrafiłaby. Gdyby potrafiła - kapitalizm nie przejmowałby się odpowiedzialnością.
Gdyby AI miała faktycznie mniejszą wypadkowość, niż przeciętny kierowca, to grube miliardy (czy nawet biliony), które za nią stoją, przeforsowałyby prawo dopuszczające AI do ruchu.
A kto miałby fun z prowadzenia bugatti? AI? To ja dzięks.