Roberto Mata ewidentnie nie miał dobrego lotu. 27 sierpnia 2019 r. mężczyzna był pasażerem lotu Avianca 670 z Salwadoru do Nowego Jorku. Po drodze steward czy stewardessa popychająca wózek z napojami przypadkowo uderzyła go nim w kolano.
Mata, jak każdy pełnokrwisty Amerykanin, postanowił pozwać linię lotniczą. To, co nastąpiło było jednak głęboką niespodzianką dla niego, jego adwokata i rozpatrującego sprawę sędziego.
Kiedy linia lotnicza złożyła do sądu na Manhattanie wniosek o oddalenie pozwu, prawnik Steven A. Schwartz, adwokat z 30-letnim doświadczeniem, przedstawił sędziemu dziesięciostronicowe opracowanie, w którym powoływał się na szereg precedensów. Rozstrzygnięcia spraw Martinez kontra Delta Air Lines, Zicherman kontra Korean Air Lines czy Varghese kontra China Southern Airlines miały dobitnie pokazywać, że jego klient w pełni zasługuje na odszkodowanie.
Był tylko jeden problem. Nikt - ani prawnicy linii lotniczych, ani sędzia, nie był w stanie odnaleźć wymienionych w opracowaniu precedensów. Powód był prosty. Wszystkie, co do jednego, zostały zmyślone przez ChatGPT.
Gdy sprawa wyszła, prawnik błagał o litość sędziego, tłumacząc, że nigdy wcześniej nie korzystał z ChatGPT, nigdy więcej tego nie zrobi i nie miał pojęcia, że chatbot może po prostu kłamać. Kiedy spytał automat, czy wymienione przez niego sprawy były prawdziwe, ChatGPT zapewnił, że tak. Prawnikowi się upiekło. Dostał tylko 5 tys. dolarów grzywny.
Jak to było, że niby sztuczna inteligencja zastąpi prawników?
_________________ "Różnorodność warto celebrować, z niej bowiem rodzi się mądrość." Duiker, historyk imperialny (Steven Erikson "Malazańska Księga Poległych")
Jak to było, że niby sztuczna inteligencja zastąpi prawników?
kumpel od jutra zaczyna pracę w SA z WIG jako Główny Szef Projektu SI - przeszedł 10 eatapową rekrutację na końcu której miał rozmowę z szefem wszystkich szefów tejże firmy.
Będą robić SI która pozwoli na ograniczenie personelu średniego szczebla - jak rozumiem np. handlowców i pomniejszych PMów/kierowników/liderów
Nie jestem w stanie polemizować. Może i nie ma z czym. Na pewno nie mam kompetencji.
Niemniej. Niemniej, w związku z inną sferą moich zainteresowań, bardziej przyziemną wpadł mi w oczy coroczny raport Goldman Sachs. https://www.goldmansachs....t-ai-investment
Skracając maksymalnie - analitycy tej firmy (bandyty finansowego, swoją drogą ) powątpiewają w opłacalność inwestycji w AI. Duże koszty, a efekty marne. Niestety, nie znalazłem omówienia tego podkastu. Ale jest ciekawy. Z biznesowego punktu widzenia. Cywilizacyjne koszty/zyski to co innego.
Podczas gdy duże modele językowe sztucznej inteligencji stają się coraz lepsze w rozwiązywaniu powierzonych im zadań - szczególnie tych łatwiejszych, to w przypadku trudniejszych pytań AI unika odpowiedzi lub "halucynują", czyli po prostu wymyślają odpowiedź, by odpisać człowiekowi cokolwiek.
Tendencja ta została przedstawiona na wykresach. Kolor czerwony oznacza błędne odpowiedzi, kolor szaroniebieski odmowę udzielenia odpowiedzi, a granatowy poprawne odpowiedzi. Oś x reprezentuje postrzegany przez ludzi poziom trudności pytań, a oś y procent wszystkich pytań w danym przedziale "trudności". Z tych można łatwo odczytać, że im trudniejsze pytania, tym bardziej prawdopodobne, że czatbot wstrzyma się z odpowiedzią.
_________________ Beata: co to jest "gangrena zobczenia"?
Fidel-F2: Pojęcie wprowadził Josif Wissarionowicz
Fidel-F2: Jak choćby raz opuścisz granice rodiny, ty już nie nasz, zobczony.
Fidel-F2: Na tę gangrenę lek jest tylko jeden.
Próbuj. Przegrywaj. Nieważne. Próbuj po raz kolejny. Przegrywaj po raz kolejny. Przegrywaj lepiej
Researchers at HiddenLayer have developed the first, post-instruction hierarchy, universal, and transferable prompt injection technique that successfully bypasses instruction hierarchy and safety guardrails across all major frontier AI models. This includes models from OpenAI (ChatGPT 4o, 4o-mini, 4.1, 4.5, o3-mini, and o1), Google (Gemini 1.5, 2.0, and 2.5), Microsoft (Copilot), Anthropic (Claude 3.5 and 3.7), Meta (Llama 3 and 4 families), DeepSeek (V3 and R1), Qwen (2.5 72B) and Mistral (Mixtral 8x22B).
Fajny odcinek podkastu "Co to będzie", tym razem o AI, w którym autorzy odczarowują nieco hjajp na AI. Zresztą, racjonalnie i zbieżnie z tym, co na temat znaczenia AI pisano w raporcie Goldman Sachs, który chyba w tym lub innym temacie linkowałem. Od 25 minuty, warto posłuchać: https://www.youtube.com/watch?v=eK0_yyiSxq4
Na wszelki wypadek jeszcze link do raportu: https://www.goldmansachs....al-intelligence
Na razie cały ten biznes to jedna wielka przepalarnia hajsu, szkodliwa dla środowiska, bo potrzebująca mnóstwo energii i zapotrzebowanie to będzie jeszcze wzrastać.
Generalnie, na bańce spekulacyjnej AI prawdziwe pieniądze zarabiają tylko producenci procesorów. I długo tak będzie.
Spokojnie uwierzę, że AI "się myli".
Ale "powoływanie się na nieistniejące źródła" z daleka mi śmierdzi albo źle przygotowanym AI, albo celowo dobieranymi zadaniami które mają ją "wprowadzić w błąd", coś zasugerować. Tym bardziej, jeśli 70% odpowiedzi jest błędnych.
Wykorzystali sobie jakąś AI ogólną a nie wytrenowaną konkretnie pod specjalizację? Może dosłownie wykorzystali ChatGPT? (co byłoby absurdalne już w ogóle)
Te AI powinny być wyspecjalizowane pod konkretnie diagnozowanie raka, albo konkretnych chorób. Lekarze też bez pomyłek diagnozują każdą możliwą chorobę? Bo jakoś mi się nie wydaje.
To, że używając AI należy być ostrożnym to wie każdy kto się tym zajmuje. Żadna nowość. Brzytwa w rękach każdego idioty będzie niebezpieczna.
Ale ten procent wygląda jakby ktoś tu zrobił coś celowo pod z góry założoną tezę.
A artykuł, jak to zwykle w mendiach - bez sensu, bez konkretów, byle wywołać sensację.
P.S. Aż sobie poszukam czy rzeczywiście wykorzystali do tego po prostu taki zwykły ChatGPT.
_________________ Załączam różne wyrazy i pozdrawiam
Goldsun
To jest mega bzdura, włoscy naukowcy brzmi jak amerykańscy z dowcipów.
Cytat:
Badacze przeanalizowali odpowiedzi dostarczone przez ChatGPT w 200 wymyślonych przypadkach klinicznych, dotyczących różnych specjalizacji lekarskich. Pomyłki wykryto w tak poważnych diagnozach, jak te dotyczące raka skóry i piersi
No czy może być głupsze badanie z grantów dla dramowej kaski niż testowanie jak zadziała chatGPT do diagnozy? Pewnie to ta sama ekipa która wcześniej badała dr google i też im wychodziło że lekarz jest niezbędny do prawidłowej
Jestem ciekawy na jakim etapie jest AI opracowywane przez John Hopkins University które jest karmione danymi obrazowymi (tomoggraf/ctscan/xray) i jaką ich model uzyskuje skuteczność, bo zdanie gówno naukowców którzy sami nic opracowują mało kogokolwiek obchodzi.
@goldsun +1k
_________________ W życiu - oczekujemy co najwyżej sporej porcji bezrefleksyjnej zabawy i przyczynku do dalszej zabawy.
To akurat najmniejszy problem, te modele AI to nic szczególnego. Trochę lepsze od Google i Google Translatora. To na razie szczyt ich osiągnięć, jeśli chodzi o masowy dostęp. A i bez tej kasy - mogę się założyć - te narzędzia doszłyby do takiego poziomu. Syntezatory mowy to narzędzie stare jak świat niemal, a "lektorzy" AI książek to tylko ulepszona ich wersja. Notatki głosowe, czy bardziej skomplikowane voice to text - znajkomy adwokat z pięć czy dziesięć lat temu tak robił notatki ze spraw. I tak dalej.
Nie kwestionuję użyteczności. Żeby nie było. Kwestionuję rewolucyjność. A im więcej czytam - wspomniany raport GS - to widzę, że więcej tu bicia piany i przepalania kasy niż konkretu. Już z rok temu AI miała być tak potężna, tak rewolucujna, że łolaboga. A tu raptem ChatGPT w najnowszej wersji przypomina raczej zwykły upgrade poprzedniej niż kolejny wieszczony co pół roku "przełom".
_________________ There must be some way out of here, said the joker to the thief,
There's too much confusion, I can't get no relief.
Niedawno trafiłem na inny eksperyment, AI i ludzie proponowali projekty które miały poszerzyć wiedzę w jakiejś tam dziedzinie a potem zrealizowano te projekty i AI była niewiele gorsza od ludzkich projektów natomiast w samym opisie wydawała się dużo lepsza. Jeden powie że to zwycięstwo ludzkości a inny powie - już teraz AI jest w stanie zastąpić naukowców
_________________ Beata: co to jest "gangrena zobczenia"?
Fidel-F2: Pojęcie wprowadził Josif Wissarionowicz
Fidel-F2: Jak choćby raz opuścisz granice rodiny, ty już nie nasz, zobczony.
Fidel-F2: Na tę gangrenę lek jest tylko jeden.
Próbuj. Przegrywaj. Nieważne. Próbuj po raz kolejny. Przegrywaj po raz kolejny. Przegrywaj lepiej
W miniony weekend prominentni pracownicy OpenAI ogłosili w serii postów na X, że GPT-5 "znalazł rozwiązania do 10 (!) wcześniej nierozwiązanych problemów Erdősa" i poczynił postępy w kolejnych jedenastu. W komunikatach użyto języka sugerującego, że model nie tylko wyszukał publikacje, ale faktycznie rozwiązał długo otwarte zagadnienia z teorii liczb - co brzmiało jak potencjalny naukowy przełom.
Cytat:
Thomas Bloom, matematyk prowadzący portal erdosproblems.com, z którego korzystał zespół OpenAI, zareagował natychmiast: wyjaśnił, że "otwarte" na jego stronie oznacza jedynie, że nie jest mu znana publikacja opisująca rozwiązanie danego przypadku, a GPT-5 po prostu wskazał istniejące już w literaturze prace, których Bloom nie miał w zbiorze swojej witryny. Nie było żadnego nowego dowodu - jedynie skuteczne wyszukiwanie informacji ze strony czatbota.
_________________ Beata: co to jest "gangrena zobczenia"?
Fidel-F2: Pojęcie wprowadził Josif Wissarionowicz
Fidel-F2: Jak choćby raz opuścisz granice rodiny, ty już nie nasz, zobczony.
Fidel-F2: Na tę gangrenę lek jest tylko jeden.
Próbuj. Przegrywaj. Nieważne. Próbuj po raz kolejny. Przegrywaj po raz kolejny. Przegrywaj lepiej
Syntezatory mowy to narzędzie stare jak świat niemal, a "lektorzy" AI książek to tylko ulepszona ich wersja.
Teraz wykazałeś po całości jak to humaniści niewiele rozumieją z zagadnień technicznych. W sumie to jak ludzie techniczni nie bardzo rozumieją prawniczą logikę bo z logiką to nie ma nic wspólnego
_________________ W życiu - oczekujemy co najwyżej sporej porcji bezrefleksyjnej zabawy i przyczynku do dalszej zabawy.
To akurat najmniejszy problem, te modele AI to nic szczególnego. Trochę lepsze od Google i Google Translatora. To na razie szczyt ich osiągnięć, jeśli chodzi o masowy dostęp. A i bez tej kasy - mogę się założyć - te narzędzia doszłyby do takiego poziomu. Syntezatory mowy to narzędzie stare jak świat niemal, a "lektorzy" AI książek to tylko ulepszona ich wersja. Notatki głosowe, czy bardziej skomplikowane voice to text - znajkomy adwokat z pięć czy dziesięć lat temu tak robił notatki ze spraw. I tak dalej.
Nie kwestionuję użyteczności. Żeby nie było. Kwestionuję rewolucyjność. A im więcej czytam - wspomniany raport GS - to widzę, że więcej tu bicia piany i przepalania kasy niż konkretu. Już z rok temu AI miała być tak potężna, tak rewolucujna, że łolaboga. A tu raptem ChatGPT w najnowszej wersji przypomina raczej zwykły upgrade poprzedniej niż kolejny wieszczony co pół roku "przełom".
1. AI bardzo ładnie syntetyzuje wiedzę. I nie "zapomina" tak jak człowiek. Po zsyntetyzowaniu robi ładną analizę. U mnie sieci neuronowe do analiz biznesowych funkcjonują już od 20 lat. I są bardzo efektywne - ludzie za to płacą bo te dane mają dla nich konkretną wartość biznesową.
2. AI "podpowiada" różne rzeczy, na które człowiek niekoniecznie sam wpadnie tak od razu.
I to działa u nas również w medycynie. Przykładowo od lat lekarzom nasza aplikacja zwraca uwagę jeśli lekarz komuś przepisze leki a te mogą wchodzić w interakcje z innymi które dany pacjent już bierze.
Oczywiście - jedno i drugie bez AI też działało. AI w tym przypadku po prostu to lepsze narzędzia o wiele bardziej wydajne i mimo wszystko z lepszymi wynikami.
Ale muszą być dobrze zrobione i "nauczone".
AI to narzędzie, które potrafi przetwarzać coraz większe ilości danych. Ilości danych których człowiek nie potrafi już obejmować jednoosobowo. Więc jest naturalnym asystentem dla człowieka.
Weźmie ci np. obraz z rtg, przeanalizuje i uwypukli to na co powinieneś zwrócić uwagę diagnozując pacjenta (to co odbiega od normy). Co pozwoli na szybsze diagnozy. To taki pierwszy z brzegu przykład. Przy czym nikt ci nie broni obejrzeć ten obraz samemu i tak.
Albo weźmiesz badania dna morskiego i puścisz po nich AI, żeby ci znalazło to co nie pasuje, to na co dobrze popatrzeć bliżej - zrobić tam dodatkowe badania, pomiary itp.
Albo ... puścisz AI do przeanalizowania akt sprawy sądowej, żeby AI zrobiło ci z tego krótki konspekt z zaznaczeniem w których aktach na co masz popatrzeć. ;-)
... i tak można by długo ...
AI może ci zrobić symulacje, które będą bardzo zbliżone do rzeczywistości.
Czyli robiąc jakieś badania, zamiast żmudnie sobie przygotować środowisko fizycznie, to przygotowujesz je do AI i puszczasz. Co więcej - możesz sobie w taki sposób powtarzać takie badania mając cały czas takie samo środowisko/dane wejściowe - w rzeczywistych warunkach to jest trudniejsze do zrealizowania, żeby mieć za każdym razem takie samo środowisko.
I takie symulacje też już były dawno temu robione. pamiętam jak na polibudzie wiedzieliśmy że jakiś chemik zarzynał zawsze serwery swoimi badaniami, tak samo przepalał moce/zasoby itp.
Owszem moc procesorów też wzrosła, więc tu taż przez to jest lepiej. To po prostu działa dobrze jedno z drugim.
Jedna uwaga na marginesie - darmowe AI z założenia przekazują wszystko to co im wrzucisz - na swoje serwery. ;-) Więc nie wrzucaj akt spraw do darmowego AI, żeby ci nie wyciekły gdzieś. ;-) Tak samo jak wszelkich innych danych, które niekoniecznie powinny być ogólnodostępne.
Edit: I jeszcze.
Kiedyś był "lektor".
Teraz AI potrafi podrobić czyjś głos po otrzymaniu kilkunastu sekund nagrania. Więc teraz AI nie zrobi ci lektora, tylko słuchowisko z czytaniem wypowiedzi każdej postaci przez tego, kogo sobie wymyślisz. ;-)
(co jest z drugiej strony cholernie niebezpieczne, ale to temat na inną dyskusję)
_________________ Załączam różne wyrazy i pozdrawiam
Goldsun
Co ty, w ogóle nie używam AI do analizy akt. Napisanie prompta do tego, czy "wrzucenie" tego do analizy zajęłoby więcej czasu niż samodzielne napisanie. Zero efektywności, więcej bałaganu i strata czasu. Zwłaszcza że opieranie czegokolwiek bez sprawdzenia samemu - byłoby zawodowym samobójstwem, zrobieniem z siebie pośmiewiska i podwajaniem pracy do wykonania.
_________________ There must be some way out of here, said the joker to the thief,
There's too much confusion, I can't get no relief.
Co ty, w ogóle nie używam AI do analizy akt. Napisanie prompta do tego, czy "wrzucenie" tego do analizy zajęłoby więcej czasu niż samodzielne napisanie. Zero efektywności, więcej bałaganu i strata czasu. Zwłaszcza że opieranie czegokolwiek bez sprawdzenia samemu - byłoby zawodowym samobójstwem, zrobieniem z siebie pośmiewiska i podwajaniem pracy do wykonania.
Pisz za siebie. ;-)
Całkiem niedawno kolega-adwokat mówił, że proponowali mu AI właśnie do czegoś takiego. I nawet podobno pokazywali jak to działa.
Więc to samo co wyżej mu uświadomiłem, żeby sie nie zdziwił jak jakieś dane z jakiejś sprawy "analizowanej przez AI" gdzieś potem wypłyną. ;-)
_________________ Załączam różne wyrazy i pozdrawiam
Goldsun
Nie możesz pisać nowych tematów Nie możesz odpowiadać w tematach Nie możesz zmieniać swoich postów Nie możesz usuwać swoich postów Nie możesz głosować w ankietach Nie możesz załączać plików na tym forum Możesz ściągać załączniki na tym forum