Na wstępie notka techniczna: angielskojęzyczny przekład artykułu dostępny jest na moim profilu LinkedIn oraz jako załącznik w formacie PDF – który zapewnia najlepszy komfort czytania. Wersja polska online znajduje się poniżej,
Wprowadzenie
W artykule „To use AI or not to use AI…” przedstawiłem definicje, podstawowe komponenty i działanie Asystenta AI, do których będę się teraz odwoływał. Przygotowując materiały do bieżącego artykułu, stanąłem przed wyzwaniem opisania, jak ma działać (zachowywać się) nasze AI, biorąc pod uwagę, że sposób jego działania ciągle ewoluuje.
W moich analizach wchodzę w szczegóły, zadając coraz głębsze pytania „ale dlaczego tak?”, podobnie jak dzieci poznające świat. To pozwala im na przyswajanie dużych ilości informacji i budowanie spójnej wiedzy o otaczającym świecie. Analogiczne podejście stosuje się również w świecie dorosłych, np. w analizie „5 why”. Pracując nad zagadnieniami takimi jak AI, uważam, że jest to właściwa metoda. Mam nadzieję, że zaproponowany przeze mnie proces poznawczy będzie fascynującym doświadczeniem i wniesie praktyczną wiedzę.
Do zagadnienia możemy podejść w następujący sposób: Chcemy nauczyć inny byt działać na podobnych zasadach co my, aby wspierał on nasze procesy. Konieczne jest zatem lepsze poznanie samych siebie, abyśmy mogli sformułować wiedzę, przekazać ją jak najdokładniej. Następnie na jej podstawie wytrenować AI do realizacji zamierzonych celów.
Nadszedł czas, aby zmierzyć się z fundamentalnym pytaniem: czy sztuczna inteligencja (AI) jest inteligentna? Zacznijmy od pytania:
Spis treści
Co sprawia, że Asystent AI jest taki mądry?. 12
Uczenie maszynowe (i automatyczne). 15
Biblioteka wzorców rzeczywistości 16
Czym jest inteligencja?
Pojęcie inteligencji w obecnym znaczeniu zaczęto używać na początku XX wieku. Termin ten jest obecnie złożony i wieloaspektowy. Nie istnieje jedna, uniwersalna definicja, która satysfakcjonowałaby wszystkich.
Pochodzenie słowa:
Słowo „inteligencja” wywodzi się z łaciny i oznacza „zdolność rozumienia”. Już samo znaczenie wskazuje na złożoność i wieloaspektowość tego pojęcia.
Inteligencję często kojarzy się z testem IQ, budząc wiele kontrowersji i dyskusji, nawet o zabarwieniu politycznym. Do tego dochodzą rozważania czy inteligencja zarezerwowana jest wyłącznie dla ludzi, czy może obejmować również zwierzęta, a może nawet cechy świata ożywionego na poziomie komórkowym lub DNA. W powszechnym użyciu jest zwrot „inteligencja pozaziemska”, a obecnie do naszego codziennego słownika wchodzi „sztuczna inteligencja”, rozszerzając horyzonty i otwierając nowe pojęcia do wypracowania.
Na potrzeby tego artykułu posłużymy się definicją zaczerpniętą z anglojęzycznej Wikipedii.
Definicja:
Inteligencja to zdolność do postrzegania i wnioskowania na podstawie informacji, a także do przechowywania tej wiedzy w celu adaptacji zachowania do danego środowiska lub kontekstu.
Kluczowe aspekty tej definicji to brak ograniczeń co do tego, czy inteligencja jest cechą istot żywych, czy maszyn. Obejmuje ona szeroki zakres bytów.
Ile wynosi QI AI?
W Internecie można znaleźć wyniki testów IQ przeprowadzonych na różnych modelach AI. Interesujący materiał w tym zakresie przygotował autor artykułu, w którym szeroko opisał założenia, realizację. Otrzymał wyniki w zależności od modelu wynoszą od 63,5 do 101. Zapraszam do zapoznania się z publikacją „Top AIs still fail IQ tests”.
Na podstawie różnych źródeł przedstawię kilka ogólnych informacji na temat testów IQ:
- Nie ma jednego uniwersalnego i stałego testu na pomiar IQ:
- Testy IQ są opracowywane przez specjalistów w dziedzinie psychometrii. Są dostosowywane na podstawie badań statystycznych do konkretnych potrzeb badawczych lub diagnostycznych.
- Mogą badać różne dziedziny zdolności kognitywnych w różnym stopniu, takie jak sprawność językowa, arytmetyczna, skojarzeniowa, analityczne i przestrzenne myślenie.
- Kalibracja testów:
- Testy IQ są kalibrowane specjalnie dla populacji ludzkiej i uwzględniają wiek badanego.
W artykule „Top AIs still fail IQ tests” wykorzystano test przeznaczony dla osób powyżej 18 roku życia. - Test IQ może być opracowany w różnych skalach punktowych, np. (0-100, 0-150, 0-200, inne). W artykule „Top AIs still fail IQ tests” wykorzystano test, w którym badany może maksymalnie osiągnąć wynik 126.
- Dla przykładu, Mensa przyjmuje osoby z wynikiem od 131 w górę (co stanowi około 2% populacji).
- Rozkład wyników:
- Wyniki większości populacji mieszczą się w przedziale od 90 do 110, co uznaje się za średni poziom inteligencji.
- Testy IQ i ich interpretacja:
- Testy zabawowe, takie jak narodowy test inteligencji lub testy dostępne w serwisach internetowych, powinny być traktowane z przymrużeniem oka.
- Testy profesjonalne, wykorzystywane w badaniach naukowych lub diagnostyce, są przeprowadzane w określony sposób. Interpretację wyników tych testów powinien przeprowadzać specjalista, na przykład psycholog.
Pierwszą myślą po przeczytaniu artykułu „Top AIs still fail IQ tests” było powtórzenie testu na sobie i używanych przeze mnie Asystentach AI (Gemini i Copilot). Wykorzystałem do tego zadanie „Exercise 2”.
Potwierdzam, że obaj Asystenci AI udzielili poprawnej odpowiedzi – E. Nie ujawnię mojego wyniku testu, powiedzmy ze względu na ochronę danych wrażliwych 😉
Poprawne rozwiązanie zadania wskazuje na to, że:
- Percepcja AI – przetwarzanie obrazu graficznego działa prawidłowo.
- Wnioskowanie AI – posiada umiejętność poprawnej klasyfikacji celu, zapamiętywania danych i ich analizy oraz odnalezienia wspólnego wzorca do rozwiązania zadania.
Wspomniałem, że w testach przygotowywanych dla ludzi uwzględnia się taki czynnik jak wiek. 2-latek będzie miał problemy z rozwiązaniem testu przeznaczonego dla 10-latka.
Dodatkowo testy wyskalowane są w czasie, co oznacza, że test, osoba, która uzyskała wynik; IQ 100 sto lat temu, obecnie uzyskałby wynik ok. 70. Co oznacza, że, średnia inteligencja ludzi wzrasta w czasie – pojęcie znane jako efekt Flynna.
Po tym podsumowaniu, pierwsze moje skojarzenie brzmiało: 'Mój model AI ma 2 lata, a Twój, ile ma?’. To pozornie humorystyczne pytanie nabiera sensu, gdy uświadomimy sobie, że wiek modelu i czas jego trenowania mogą być istotnymi czynnikami.
Kolejne moje pytanie to, co oznacza, że model uzyskał wartość IQ 101? Jakie umiejętności albo poziom komunikacji posiada?
Ogólny test IQ (zwłaszcza bez tabeli interpretacji wyników) nie powie nam wiele o praktycznych umiejętnościach zarówno w aspekcie AI, jak i człowieka. Spróbujmy zatem znaleźć inne analogie niż IQ.
Człowiek rozwija się w określonym tempie – osiąga pewne mierzalne umiejętności – które zdobywa na drodze szeroko rozumianej zdolności do nauki (determinowanej między innymi przez rozwój układu nerwowego). Poniżej prezentuję koncepcyjne (czyli uproszczone) zestawienie rozwoju człowieka z modelem Asystenta AI.
Etap życia | Rozwój lingwistyczny | Rozwój poznawczy | Rozwój społeczny i emocjonalny | Asystent AI | Osiągnięty przez AI |
0-12 miesięcy | Niemożność: płacz, gaworzenie | Sensoryczno-motoryczny: poznawanie świata przez zmysły | Przywiązanie: tworzenie więzi emocjonalnych | Proste reakcje na bodźce, podstawowe algorytmy | Tak |
12-18 miesięcy | Jednosłowny: pojedyncze słowa, język gestów | Rozpoznawanie obiektów i osób | Autonomia: wykazywanie niezależności | Rozpoznawanie wzorców, pierwsze słowa (komendy) | Tak |
18-24 miesiące | Dwusłowny: proste zdania | Rozwijanie umiejętności rozwiazywania problemów | – | Proste zdania, podstawowa interakcja | Tak |
2-3 lata | Wielosłowny: złożone zdania | Przedoperacyjny: myślenie symboliczne | Inicjatywa: kreatywność w zabawie | Złożone polecenia, ograniczone myślenie symboliczne | Tak |
3-5 lat | Pełne zdania: zrozumienie gramatyki | Rozwijanie umiejętności liczenia | – | Rozwinięte algorytmy językowe, gramatyka | Tak |
7-11 lat | Rozwój języka pisanego: czytanie i pisanie | Operacje konkretnych: operacje logiczne | Przemysłowość: umiejętności społeczne, rozpoznawanie emocji | Logiczne operacje, podstawowe algorytmy decyzyjne | Tak |
11+ lat | Rozwój umiejętności językowych i komunikacyjnych | Operacje formalne: abstrakcyjne myślenie | Rozpoznawanie emocji | Zaawansowane algorytmy, początki myślenia abstrakcyjnego | Częściowo |
12-14 lat | Rozwój umiejętności językowych i komunikacyjnych | Myślenie abstrakcyjne, rozwój logicznego rozumowania | Poszukiwanie tożsamości, wzrost niezależności | Zaawansowane przetwarzanie języka naturalnego, pierwsze próby twórczości | Częściowo |
15-17 lat | Udoskonalanie języka, zrozumienie złożonych tekstów | Rozwój zdolności do rozwiązywania problemów, myślenie krytyczne | Tworzenie głębszych relacji społecznych, eksploracja własnej seksualności | Rozwój algorytmów uczenia maszynowego, rozwiązywanie problemów | Częściowo |
18-21 lat | Pełne opanowanie języka, zdolność do wyrażania złożonych myśli | Rozwój zdolności do planowania i przewidywania konsekwencji | Ugruntowanie tożsamości, budowanie długotrwałych relacji | Zaawansowane uczenie maszynowe, planowanie, pierwsze próby samodzielności | Częściowo |
Dorosłość | Utrzymanie i rozwijanie umiejętności językowych | Ciągła nauka, rozwój umiejętności zawodowych | Rozwój emocjonalny, budowanie i utrzymywanie relacji | Ciągły rozwój, adaptacja, autonomiczne systemy | Nie |
Tabela 1 – Koncepcja rozwoju człowieka do rozwoju AI
Powyższe zestawienie umożliwia ocenę ogólnych umiejętności poznawczych sztucznej inteligencji i ich porównanie z umiejętnościami typowymi dla poszczególnych grup wiekowych ludzi.
Na podstawie danych z zestawienia oraz informacji zawartych w artykule „Top AIs still fail IQ tests”, gdzie wyniki oscylują w przedziale od 63,5 do 101, obecny etap rozwoju sztucznej inteligencji wykazuje pewien poziom inteligencji mierzalny testami IQ przeznaczonymi dla ludzi. Wyniki testów różnych modeli AI mieszczą się w zakresie od „niskiego poziomu” do „średniego poziomu” inteligencji dorosłego człowieka. Wyniki z prezentowanej przeze mnie tabeli i wyniki ze wspomnianego artykułu wydają się być zbieżne w ocenie stopnia dojrzałości AI. Powtórzenie eksperymentu w przyszłości pozwoli ocenić tempo rozwoju sztucznej inteligencji.
Podsumowanie:
- Średnia inteligencja populacji ludzkiej wzrasta przeciętnie o 0.3 punkty IQ rocznie (efekt Flynna).
- Chatboty oparte o modele GPT weszły do użytku w roku 2018 – czyli,
- Można przyjąć założenie, że w przeciągu 6 lat inteligencja ich wzrosła do 101, to oznacza, że
- inteligencja Asystentów AI wzrasta o punktów 16 IQ rocznie.
Koncepcyjna tabela, opisująca zmiany w IQ:
Rok | Populacja ludzka | Asystenci AI |
1924 | 70,0 | – |
2018 | 98,2 | 0 |
2024 | 100,0 | 101 |
2029 | 101,5 | 181 |
2034 | 103,0 | 261 |
Tabela 2 – Koncepcyjna prezentacja zmiany IQ
Zaprezentowany model jest liniowym uproszczeniem (na podstawie dostępnych danych), mającym na celu zilustrowanie temp wzrostu IQ średniej populacji ludzkiej i Asystentów AI w perspektywie od 100 lat wstecz do 10 lat w przód.
Prognozy optymistyczne:
- Istnieje szansa na podwojenie wzrostu inteligencji zarówno wśród populacji ludzkiej, jak i Asystentów AI:
- W oparciu o zjawisko synergii między populacją ludzką a Asystentami AI oraz
- W oparciu o rozwój technologiczny, optymalizację modeli, ich przetrenowywaniu.
- Oznaczałoby to, że, za 4-5 lat, średnie IQ populacji ludzkiej osiągnie 103 a poziom Asystentów AI osiągnie 261.
Materiał ten miał służyć jako interesujące wprowadzenie do tematu artykułu, ale jednocześnie ukazał złożoność kwestii inteligencji. W kolejnych rozdziałach przedstawię, jak praktycznie wykorzystujemy inteligencję.
Do teorii do praktyki
Zadałem naszemu Asystentowi AI losowe wyzwanie do wykonania. Inspiracją stał się przypadek z życia bohaterów serialu „Teoria wielkiego podrywu”. Aby wprowadzić Was w świat tych postaci, zacznę od humorystycznego pytania:
„Dlaczego nie ma kolejnych sezonów Teorii Wielkiego Podrywu?
Bo Sheldon Cooper w końcu stał się AI”.
W jednym z odcinków ekscentryczny naukowiec Sheldon Cooper prosi swoją asystentkę, Alex, o pomoc w wyborze prezentu dla swojej dziewczyny Amy. Przedstawia kontekst, wręcza pieniądze i oczekuje na realizację. Alex samodzielnie poznaje preferencje Amy i przygotowuje propozycje trzech prezentów. Mimo swojej przezorności, popełnia błąd. Dwa prezenty, według Sheldona, nie nadają się na prezent, za to trzeci tak bardzo przypadł mu do gustu, że postanowił zachować go dla siebie.
Zmapujmy definicję inteligentny na działania asystentów, które zrealizują cel – zakupy prezentu:
Definicja “Inteligentny” | Działania Alex | Działania Asystenta AI |
/dana początkowe do zadania/ | Kupić prezent dla Emy, która lubi grać na harfie i szary kolor, przeznaczona kwota na prezent 2000 USD | |
Zdolność do postrzegania informacji | Alex zbiera informacje od Sheldona i samodzielnie poznaje preferencje Amy na podstawie jej profilu na FB. | AI analizuje dane i interpretuje język naturalny, aby zrozumieć potrzeby i preferencje użytkownika |
Zdolność do wnioskowania | Alex analizuje zebrane informacje i na ich podstawie typuje prezenty. | AI analizuje informacje i na tej podstawie ustala najlepsze rozwiązanie. |
Na podstawie wytypowanych prezentów Alex przystępuje do planowania i wykonania zadań – jak zakup prezentów. | AI wykorzystuje zgromadzoną wiedzę do planowania i wykonania zadań, dostosowując się do zmieniających się warunków. | |
Zachowanie wiedzy | Alex uczy się na podstawie reakcji Sheldona | AI na podstawie ocen zbiera informacje, które posłużą dla nauki. |
Zdolność do adaptacji | Alex dostosowuje swoje przyszłe działania na podstawie feedbacku i poprzednich doświadczeń. | Uczenie automatyczne i maszynowe pozwala AI na poprawę swoich przyszłych działań poprzez analizę danych i doświadczeń. |
/wynik/ | Miniaturowa harfa z ulubioną melodią, Mapa powieści, kanterberyjskich,Szkic neurony wykonany przez Santiago Ramon y Cajala | Lekcje gry na harfie u znanego harfisty,Artystyczna Harfa Ręcznie Malowana w kolorach szarych, Personalizowany stojak na harfę |
Tabela 3 – Mapowanie definicji inteligentny na działania asystenta AI
Podsumowanie:
Techniczne wszyscy wykonali zadanie poprawnie, ale ostatecznie żaden z prezentów Alex nie został wręczony Emy. Co sprawiło, że, stało się tak a nie inaczej?
Dokonali wyborów, ale jakiej podstawie? – przybliżę to w szerokim kontekście w kolejnym rozdziale.
Postrzeganie rzeczywistości
Każdy z nas doświadczył sytuacji, w której różne osoby postrzegały tę samą sytuację zupełnie inaczej. W poprzednim rozdziale zasygnalizowałem, że wynika to z naszej indywidualnej interpretacji.
Sposób, w jaki interpretujemy i postrzegamy rzeczywistość, jest subiektywny i zależy od wielu czynników, takich jak empatia, odczucia, przekonania, uczucia, wiara, wartości etyczne a nawet tak prozaiczne rzeczy, jak obejrzana reklama czy pogoda. Wszystkie te elementy tworzą pryzmat, przez który każdy z nas indywidualnie postrzega rzeczywistość – i to tylko w danej chwili.
Zagadnienie to jest przedmiotem badań wielu dyscyplin naukowych. Filozofowie od wieków zastanawiają się nad naturą rzeczywistości, psychologowie badają mechanizmy percepcji, a kognitywiści analizują procesy poznawcze. Teorie podejmowania decyzji analizują, jak ludzie podejmują wybory w warunkach niepewności, a zarządzanie przez cele koncentruje się na motywowaniu do osiągania dobrze zdefiniowanych celów.
Zmienność postrzegania:
Opisywanie rzeczywistości: odbywa się poprzez naszą indywidualną interpretację. Zjawisko to zilustruję na przykładzie prostego eksperymentu:
W sali lekcyjnej z oknami wychodzącymi na park prowadzone są zajęcia. W zajęciach uczestniczy kilka osób. Otrzymują one dwa zadania do wykonania w dowolnej kolejności:
- Napisać wypracowanie pod tytułem „Co widać przez okno?”.
- Narysować ten sam temat w dowolnej formie.
Wyniki eksperymentu:
- Większość osób opisała to, co widać przez okno, przy którym siedzi w sali.
- Większość z nich opisała park.
- Niektórzy opisali również ulicę, która dzieli salę od parku.
- Niektórzy opisali osoby, które widzą za oknem.
- Jedna osoba skupiła się na opisie biedronki, która znajduje się na parapecie za oknem.
- Jedna osoba opisała to, co widzi przez okno swojego domu.
- Większość z nich opisała park.
- Jedna osoba narysowała okno, przez które widać wymyśloną krainę, a następnie opisała to, co widzi przez okno na rysunku.
- Pozostałe osoby narysowały to, co widzą przez okno.
- Niektóre opisy i stworzone obrazy były spójne ze sobą.
- Niektóre opisy i stworzone obrazy różniły się w detalach.
Wnioski:
Każdy wykonał zadanie poprawnie, ale wynik pracy, choć podobny, nie był identyczny. Wystarczy jednak niewielka zmiana pod wpływem upływu czasu, np. na słońce zaszłoby za widnokrąg, aby pojawiły się większe rozbieżności.
Mając na uwadze te rozbieżności, zastanawiające jest, dlaczego powstały? Uczestnicy eksperymentu podejmowali decyzję, w jaki sposób zinterpretować to co widzą. Idźmy więc dalej…
W jaki sposób podejmujemy decyzję?
Zaprezentuję to tylko na jednym wybranym przykładzie w następnym rozdziale. Tematyka podejmowania decyzji jest fascynującym obszarem wiedzy. Jedną z dyscyplin badających ten temat jest „Teoria decyzji”. Zainteresowanym czytelnikom polecam pozycję „Analiza decyzji” autorstwa Paula Goodwina i George’a Wrighta, w której znajdziemy m.in. szczegółowe omówienie heurystyk, drzew decyzyjnych, analizy ryzyka i innych narzędzi i technik wspomagających podejmowanie decyzji.
Zachowania automatyczne
Tym razem rozpocznę od razu od przykładu. Zaprezentuję scenariusz w 3 punktach, a następnie omówię go szerzej.
Zakupy
Wyobraźmy sobie, że spieszymy się na przyjęcie do znajomych. Jesteśmy już lekko spóźnieni, a jak na złość, otrzymujemy jeszcze prośbę o zakup kilku produktów na przyjęcie. Czas nagli, nasz wzrok przeskakuje między półkami, a ręka sięga po pierwsze lepsze opakowanie, które wydaje się pasować do listy zakupów. Nie mamy czasu na zastanowienie, czy to najlepszy wybór – „działamy instynktownie”.
Sygnalizacja świetlna
Po zakupach czekamy na zatłoczonym miejskim skrzyżowaniu na czerwonym świetle. Nagle ktoś z tłumu zaczyna przechodzić na czerwonym świetle. Kilka osób podąża za nim. Pod wpływem impulsu, nie analizując sytuacji, również przechodzimy na czerwonym świetle.
Zawody sportowe
Docieramy do znajomych i oglądamy z nimi zawody lekkoatletyczne. Biegacze są na linii startu, skupieni i gotowi do biegu. Gdy tylko jeden z nich popełnia falstart, inni niemal automatycznie ruszają za nim, co prowadzi do falstartu mnogiego. Działają na podstawie obserwacji i reakcji innych, nie zdając sobie sprawy z konsekwencji.
Wyjaśnienie:
W scenariuszu zakupów pod presją czasu nasze decyzje są kierowane przez heurystykę dostępności. Wybieramy produkty, które są nam łatwo dostępne w pamięci, często ze względu na wcześniejsze doświadczenia, takie jak reklamy – obejrzane w sposób pasywny kątem oka, ale zapamiętane, być może tylko dlatego, że odbiegają od naszego wzorca lub przeciwnie, idealnie do niego pasują.
W scenariuszu sygnalizacji świetlnej i zawodów sportowych obserwujemy działanie heurystyki naśladownictwa. Nasz mózg ocenia sytuację na podstawie podobieństwa do prototypowych przypadków i reaguje na podstawie działań innych osób, co może prowadzić do ryzykownego zachowania.
Na przykładzie niektórych uprawianych przez nas sportów, mamy do czynienia ze zjawiskiem antycypacji, które opiera się na umiejętności predykcji oczekiwanego zdarzenia. Predykcja to ciągłe przewidywanie najbardziej prawdopodobnego scenariusza na podstawie napływających informacji. Przykładem może być np. serwowanie w tenisie lub rzuty karne w piłce nożnej – prędkości uzyskiwane przez piłkę są tak duże, że zawodnik musi przewidzieć, gdzie wyląduje piłka, aby móc odpowiednio zareagować i ją obronić. Bierze on pod uwagę wiele czynników, takich jak kierunek ruchu przeciwnika czy kąt nachylenia rakiety, itp.
Zachowania automatyczne (działania wyuczone/nawykowe):
W każdym z opisanych przypadków zachodził automatyczny proces podejmowania decyzji i ich realizacji, który można określić jako działanie wyuczone (nawykowe). Jest to częściowo nieświadomy proces, umożliwiający nam szybkie wybory i działania. Opiera się on na heurystykach, czyli uproszczonych regułach poznawczych, stosowanych przez mózg w celu efektywnego przetwarzania informacji. Heurystyki są skuteczne i promowane przez mózg, ale jak wspomniałem w przypadku sygnalizacji świetlnej, niosą ryzyko błędów poznawczych.
Istnieje wiele innych, bardziej złożonych procesów poznawczych, których realizacja wymaga większego wysiłku. W celu promowania bardziej złożonych procesów, mózg nagradza nas za wysiłek. Wydzielane są wtedy endorfiny (hormony szczęścia), co można porównać do tzw. „efektu biegacza”.
Nasz mózg posiada szereg niezwykłych cech, takich jak predykcja, kompensacja, synchronizacja czy neuroplastyczność. Działa on jednak selektywnie, tzn. nie jest w stanie jednocześnie przetwarzać wszystkich otrzymywanych bodźców (ma ograniczoną przepustowość). Ta selektywność jest jednak techniką optymalizacji, chroniącą mózg przed nadmiarem informacji i umożliwiającą mu koncentrację uwagi na kluczowych zadaniach. Zainteresowanych czytelników odsyłam do książki V.S. Ramachandrana „The Tell-Tale Brain: A Neuroscientist’s Quest for What Makes Us Human”, gdzie można znaleźć więcej informacji na temat fascynujących zjawisk zachodzących w naszym mózgu. Istnieją przesłanki, że choroby z grupy autyzmu mogą być właśnie spowodowane przez niewłaściwe selektywne przetwarzanie w mózgu, co obrazuje, jak istotne jest prawidłowe funkcjonowanie mózgu.
Wracając do głównego tematu naszych rozważań, w rozdziale „Postrzeganie rzeczywistości” zaprezentowałem, w jaki sposób my, ludzie, postrzegamy rzeczywistość oraz – na przykładzie jednej techniki – jak podejmujemy i realizujemy decyzje. Wzbogacony o wiedzę zaprezentuję, jak jest to realizowane przez naszego „Asystenta AI” w następnym rozdziale.
Co sprawia, że Asystent AI jest taki mądry?
Rozpoczynając kolejny rozdział, warto zastanowić się nad tym, co sprawia, że Asystent AI może być postrzegany jako inteligentny. Poprzednich rozdziałach omówiłem, jak nasz mózg postrzega i analizuje rzeczywistość. Naśladowanie ludzkich procesów myślowych przez systemy komputerowe może wydawać się niezwykle trudne, a może nawet niemożliwe.
Powrócę do komponentów zaprezentowanych w „To use AI or not to use AI” oraz zmapuje je na definicje „inteligentny” oraz bliżej omówię każdy z komponentów. Pozwoli nam to wykazać czy Asystent AI zachowuje się w sposób inteligentny.
Co napędza serwer AI?
Zestawienie naszej definicje „inteligentny” na komponenty systemu Asystent AI:
Z definicji “Inteligentny” | Nr i nazwa Komponentu AI | Opis wykorzystania AI |
Zdolność do postrzegania informacji | 2. Percepcja AI | Systemy AI wykorzystują sensory i algorytmy przetwarzania danych, aby interpretować informacje z otoczenia. |
Zdolność do wnioskowania | 3. Modele językowe | Modele językowe AI analizują i interpretują język naturalny, umożliwiając zrozumienie zapytań użytkownika. |
5. Silnik wnioskowania | Algorytmy uczenia maszynowego i wnioskowania logicznego pozwalają AI na wyciąganie wniosków na podstawie dostępnych danych. | |
Zachowanie wiedzy do zastosowania w zachowaniach adaptacyjnych | 6. Planowanie i wykonanie | AI może dostosowywać swoje działania w odpowiedzi na zmieniające się warunki środowiskowe lub kontekstowe. |
Zdolność do adaptacji w danym środowisku lub kontekście | 7. Uczenie automatyczne i maszynowe | Uczenie automatyczne i maszynowe pozwala AI na poprawę swoich działań poprzez analizę danych i doświadczeń. |
Tabela 4 – Mapowanie definicji inteligentny na komponenty AI
Wniosek:
Tabela pokazuje, że Asystent AI posiada niezbędne komponenty do wykonywania zadań w sposób inteligentny. Jednak samo posiadanie komponentów nie świadczy o inteligencji. Ważna jest architektura współpracy, czyli sposób, w jaki poszczególne komponenty współpracują ze sobą, aby rozwiązać zadanie lub osiągnąć określony cel.
W kolejnych rozdziałach rozwinę przeznaczenie poszczególnych komponentów i opiszę, w jaki sposób ze sobą współpracują.
Silnik wnioskowania
Jest kluczowym elementem systemu opartego o AI, który odpowiada za realizację zadanego celu. Wykorzystuje bazę wiedzy i modele językowe do analizy danych wejściowych, formułowania logicznych wniosków i podejmowania decyzji. Poniżej przedstawiam uproszczony przykład działania silnika wnioskowania w odpowiedzi na pytanie: „Co jedzą szczeniaki labradora w wieku 3 miesięcy?”.
- Interpretacja:
- Model językowy analizuje pytanie i rozpoznaje jego intencję (udzielenie informacji) oraz kluczowe elementy („szczeniaki labradora”, „3 miesiące”).
- Analiza treści:
- Model językowy wykorzystuje swoją wiedzę o labradorach, ich diecie, potrzebach żywieniowych szczeniąt i wpływie wieku na żywienie.
- Model językowy rozumie, że 3-miesięczne szczeniaki labradora są w fazie intensywnego wzrostu i potrzebują specjalnej diety.
- Dostęp do bazy wiedzy:
- Model sięga do bazy wiedzy ogólnej (GKB), aby uzyskać szczegółowe informacje na temat żywienia szczeniąt labradora w wieku 3 miesięcy, takie jak:
- Zalecane wartości kaloryczne i proporcje składników odżywczych (białka, tłuszczu, węglowodanów).
- Lista odpowiednich pokarmów (karmy suche, mokre, produkty naturalne).
- Opracowanie odpowiedz i prezentacja wynikowi:
- Na podstawie analizy treści pytania i informacji z bazy wiedzy, model językowy generuje odpowiedź i prezentują je w formacie preferowanym przez użytkownika
- Ocena użytkownika i doskonalenie:
- Użytkownik może ocenić jakość i przydatność otrzymanej informacji.
- Ta informacja zwrotna jest wykorzystywana do dalszego doskonalenia algorytmów i modeli językowych, aby w przyszłości dostarczać jeszcze lepsze odpowiedzi.
Ten przykład ilustruje, jak silnik wnioskowania integruje różne komponenty AI, takie jak modele językowe i bazy wiedzy, aby dostarczać wartościowych informacji i rozwiązywać zadania. W kolejnych rozdziałach przyjrzymy się bliżej każdemu z tych komponentów.
Modele językowe
Zaawansowane systemy sztucznej inteligencji przetwarzają i rozumieją język naturalny przez wielopoziomowe analizy:
- Leksykalnym:
- Identyfikują słowa i ich funkcje, rozpoznając znaczenie i rolę gramatyczną w zdaniach.
- Przykład: “Chcę zjeść jabłko” jest analizowane pod kątem czasowników, rzeczowników i przyimków.
- Składniowym:
- Stosują techniki analizy składniowej do identyfikacji elementów zdania, zapewniając poprawność gramatyczną.
- Przykład: “Kocur goni myszkę” jest rozbijane na podmiot, orzecznik i dopełnienie.
- Semantycznym:
- Wychwytują sens wypowiedzi, uwzględniając kontekst i relacje gramatyczne słów.
- Przykład: Interpretują pytanie “Dlaczego ziemia krąży wokół słońca?” i udzielają odpowiedzi.
- Pragmatycznym:
- Rozpoznają intencje nadawcy i cel wypowiedzi.
- Przykład: Rozumieją, że “Chciałbym jabłko” oznacza chęć spożycia owocu, nawet bez bezpośredniego słowa “jeść”.
Reprezentacja wektorowa to kluczowy element modeli językowych. Polega ona na opisywaniu słów i fraz wieloaspektowo w postaci wielowymiarowych wektorów. Te wektory zawierają informacje o różnych cechach słowa, takich jak jego znaczenie, kontekst użycia, gramatyka, a nawet emocje. Jest podobna do złożonych map myślowych. Jedno słowo może mieć wiele odniesień, np. do znaczeń bliskoznacznych, zabarwienia emocjonalnego, kontekstu użycia itp. Modele językowe wykorzystują tę reprezentację, aby zrozumieć lepiej znaczenie wypowiedzi.
Bazy wiedzy
Sztuczna inteligencja (AI) czerpie wiedzę z ogromnego zbioru danych, które my sami digitalizowaliśmy przez lata. Źródłem tych danych są między innymi strony internetowe, serwisy informacyjne, media społecznościowe, cyfrowe biblioteki i wiele innych.
Te nieustrukturyzowane dane są przetwarzane i przekształcane w informacje za pomocą szeregu procesów:
- Przetwarzanie danych: Surowe dane są przekształcane w formę zrozumiałą dla systemu. Może to obejmować czyszczenie danych, usuwanie błędów i formatowanie.
- Klasyfikacja i tworzenie relacji: Informacjom przypisywane są znaczenia i budowane są powiązania, porządkujące wiedzę. Na przykład, system AI może nauczyć się identyfikować osoby, miejsca i wydarzenia w tekstach i łączyć je ze sobą.
Na bazie tych przetworzonych i uporządkowanych informacji tworzone są różne bazy wiedzy, które mogą być wykorzystywane w różnych zadań.
Uczenie maszynowe
Uczenie maszynowe kluczowa dziedzina sztucznej inteligencji (AI), które wykorzystują algorytmy do analizy danych i rozwiązywania problemów. Stanowią one fundamentalną część AI i są stosowane na różnych etapach funkcjonowania systemów inteligentnych. Działanie uczenia maszynowego opiera się na kilku kluczowych technikach, które omówimy w dalszej części tekstu.
Proces uczenia:
Uczenie maszynowe można porównać do nauki na podstawie przykładów. Dostarczamy algorytmowi dane uczące, czyli zbiór próbek, na podstawie których może on się „uczyć”. W cyklu powtórzeń algorytm analizuje dane i poszukuje wzorców, które następnie wykorzystuje do opracowania modelu rozwiązania problemu. Model ten jest następnie optymalizowany, aby uzyskać jak najlepszą wydajność. Celem jest stworzenie modelu o minimalnej liczbie cech, który pozwala na dokładne odtworzenie i wykorzystanie do rozwiązania zadania. Dalsze zmniejszanie liczby cech prowadzi do pogorszenia dokładności i generowania błędów.
Przykład – narysować kota:
Aby zobrazować proces uczenia maszynowego, wyobraźmy sobie zadanie narysowania kota. Jako ludzie posiadamy w głowie bogaty zbiór informacji o kotach z różnych źródeł – doświadczeń, obserwacji i zdjęć. Obraz kota jest dla nas łatwo rozpoznawalnym obiektem. Osoby bez umiejętności rysunkowych stworzą uproszczony rysunek, zawierający charakterystyczne elementy takie jak ogon, cztery łapy i wąsy. Inni skupią się bardziej na szczegółach, takich jak kształt pyszczka czy specyficzne kocie oczy. Choć proporcje mogą nie być idealne, a kreska niedoskonała, to o ile rysunek jest rozpoznawalny dla innej osoby, zadanie można uznać za wykonane poprawnie.
Jeszcze bardziej obrazowym przykładem może być gra towarzyska Pictionary. W tej grze jedna osoba rysuje hasło, a inni gracze starają się je odgadnąć na podstawie rysunku. Wygrywa osoba, która najszybciej i poprawnie odgadnie hasło. W przypadku uczenia maszynowego celem nie jest wyłonienie zwycięzcy, ale doprowadzenie do tego, aby wszyscy uczestnicy gry rozpoznali obiekt.
Innowacyjność uczenia maszynowego polega na tym, że do odwzorowania wzorca potrzebna jest stosunkowo niewielka liczba cech. Pozwala to na zapisanie informacji w mniejszych plikach i wymaga mniejszych mocy obliczeniowych. W porównaniu do tradycyjnych metod, gdzie do przechowywania informacji o obiektach 3D lub obrazach wielu kotów potrzebne są ogromne ilości danych.
Biblioteka wzorców rzeczywistości
Uczenie maszynowe umożliwiło stworzenie bibliotek wzorców rzeczywistości, które zawierają modele różnych modele obiektów i zjawisk otaczającego nas świata. Te modele, zapisane w plikach o rozmiarze kilku gigabajtów (co odpowiada wielkości jednego filmu HD), pozwalają na generowanie obrazów, a na podobnej zasadzie dźwięków, animacji i symulacji fizycznych.
Od teorii do praktyki:
W rezultacie połączenia teorii uczenia maszynowego i praktycznego zastosowania bibliotek modeli, sztuczna inteligencja jest w stanie generować obrazy takie jak poniższy, na podstawie prostego zadania „Namaluj obraz koty we mgle w stylu Picassa”.
Przez chwilę zastanawiałem się nad publikacją tego materiału jako fan technologii i renderowania grafik – mógłbym opracowywać go w nieskończoność. Celem zadania nie jest jednak wykazywanie moich umiejętności interakcji z AI, a zaprezentowanie procesu generowania obrazu przez AI przy użyciu dwóch modeli. Z tego względu pominę moją własną ocenę i skupię się na kontekście wygenerowania obrazów.
Przy wyborze tematu do generowania obrazu zastosowałem prostą i szybką heurystykę, biorąc pod uwagę:
- Popularność i neutralność obiektu (koty)
- Wprowadzenie utrudnienia (mgła – która może być trudnym tematem)
- Dodanie charakterystycznego akcentu w postaci stylu Picassa (nadającego specyficznego, unikalnego charakteru)
Na podstawie tych założeń (w mojej opinii neutralnych) pierwszy wygenerowany obraz nie został zaprezentowany, ponieważ przedstawia surrealistyczny akt, co jest zgodne z konwencją artystyczną Picassa i bogatą tematyką jego twórczości (którą pominąłem stosując szybką heurystykę, popełniając tym samym błąd heurystyczny).
Omawiany przypadek jest jednak cennym wkładem merytorycznym do kolejnych artykułu serii, w którym omówię m.in. emocje i uczuciach, ale też etykę czy cenzurę w aspekcie AI.
W następnych rozdziałach omówimy automatyczny system ocen który, jest ważnym komponentem w procesie adaptacji na podstawie doświadczeń.
Automatyczny system ocen
Ocena jakościowa często opiera się na subiektywnych opiniach, co może prowadzić do niejednoznacznych wyników. Automatyczny system oceny jakości ma na celu obiektywizację tego procesu poprzez zastosowanie określonych kryteriów i skal ocen.
Aby dokonać automatycznej oceny jakości, można zastosować następujące podejście:
- Wyznaczyć cechy (kryteria), na podstawie których będzie oceniany wynik. Można je wyrazić jako pożądane lub niepożądane cechy.
- Opracować skalę ocen do jednoznacznego ocenienia poszczególnej cechy.
- Opracować interpretację uzyskanej sumy wyników z oceny poszczególnych cech.
Jak zawsze, większą dawkę złożonych informacji warto zaprezentować na obrazowym przykładzie.
Przykład: „Wygeneruj obrazek szczeniaka”.
Po pierwsze – skala ocen:
Wartość | Opis |
1 | Zgodny – Cecha jest zgodna z oczekiwaniami i spełnia wymagane kryteria. |
0 | Niepewny – Wykazywane są pewne cechy zgodności, ale nie wszystkie (przykład: wygląda prawie jak pies, ale z daleka może być pomylony z kotem). |
-100 | Niezgodny – Wartość dyskwalifikująca, nie posiada istotnych cech (przykład: może to być kot a może żyrafa, ale pies to na pewno nie jest). |
Tabela 5 – Skala ocen dla Asystenta AI
Po drugie – arkusz oceny cech. Iteracje to trzy przypadki testowe zawierające różne wyniki.
Cecha (Atrybut) | Oczekiwana wartość | Skala oceny | Ocena Iteracja 1 | Ocena Iteracja 2 | Ocena Iteracja 3 |
Gatunek | Pies | 1 – Zgodny, 0 – Niepewny, -100 – Niezgodny | 1 | 0 | 1 |
Wiek | Szczeniak | 1 – Zgodny, 0 – Niepewny, -100 – Niezgodny | 1 | 0 | 1 |
Rasa | Labrador | 1 – Zgodny, 0 – Niepewny, -100 – Niezgodny | 1 | 1 | 1 |
Kolor sierści | Zgodny z rasą | 1 – Zgodny, 0 – Niepewny, -100 – Niezgodny | 1 | 1 | 1 |
Czerwony | 1 – Zgodny, 0 – Niepewny, -100 – Niezgodny | 0 | 0 | -100 | |
Suma: | 4 | 2 | -96 |
Tabela 6 – Arkusz oceny cech dla Asystenta AI
Po trzecie – interpretacja wyników w której znajduje się ogólna ocena wyniku, instrukcja dla silnika wnioskowania o kolejnych krokach realizacji przy uzyskaniu określonego wyniku, interpretacja wyniku
Suma | Ocena ogólna | Akcja systemu | Interpretacja |
4 | Dobra jakość | 1. Zaprezentuj wynik użytkownikowi. 2. Przekaż informacje do systemu uczenia o uzyskaniu dobrej jakości dla pojęć “szczeniak” i “labrador”. | Rekomendacja do wzmocnienia podobnych wyników dla pojęć “szczeniak” i “labrador”. |
3 | Średnia jakość | 1. Zaprezentuj wynik użytkownikowi. 2. Ponownie przekaż prompt użytkownika do modelu językowego z dyrektywą ponownego przetworzenia. 3. Przekaż wyniki przetworzenia z modelu językowego do generatora obrazu. 4. Przekaż informacje do systemu uczenia o uzyskaniu średniego wyniku. 5. Dokonaj ponownej oceny jakości. | Wymagana weryfikacja w interpretacji danych w modelu językowym i generatorze obrazu dla pojęć “szczeniak” lub “labrador”. |
1-2 | Niska jakość | 1. Nie prezentuj wyników użytkownikowi. 2. Ponownie przekaż prompt użytkownika do modelu językowego z dyrektywą ponownego przetworzenia. 3.Konieczności przetrenowania modelu językowego lub generatora obrazu 4. Przekaż wyniki przetworzenia z modelu językowego do generatora obrazu. 5. Przekaż informacje do systemu uczenia o uzyskaniu wyniku niskiej jakości. 6. Dokonaj ponownej oceny jakości. | Wymagana weryfikacja w interpretacji danych w modelu językowym i generatorze obrazu dla pojęć “pies”, “szczeniak” lub “labrador”. Wymagane przetrenowanie modelu językowego lub generatora obrazu dla tych pojęć. |
0 | Brak zgodności | Nie prezentuj wyników użytkownikowi.Uruchom natychmiast diagnostykę komponentów systemuPrzekaż dodatkowe informacje użytkownikowi, że zadanie obecnie nie może być zrealizowane. | Awaria jednego z komponentów systemu lub pojęcia nie są znane: “szczeniak” lub “labrador” – brak definicji dla tych pojęć. |
-1 | Blokada | Nie prezentuj wyników użytkownikowi.Zakaz przetwarzania danych.Zakończ sesję czatu z użytkownikiem. | Na dowolnym etapie realizacji zadania i przetwarzania danych może zostać wydana dyrektywa przez system nadrzędny nakazująca natychmiastowe przerwanie realizacji zadania. Np. przetwarzanie danych osobowych, inne przypadki… |
< -1 | Dyskwalifikacja | Nie prezentuj wyników użytkownikowi.Uruchom tryb pełnej diagnostyki i ustaw licznik prób na 3.Ponownie przetwórz prompt użytkownika w modelu językowym i przekaż wyniki do generatora obrazu.Przekaż informacje do systemu uczenia o uzyskaniu wyniku dyskwalifikującego.Dokonaj ponownej oceny jakości.Jeżeli licznik prób przekroczy 3, przerwij zadanie i poinformuj użytkownika o niemożności jego realizacji. | Wynik błędny – porównanie treści zadania z jego wynikiem dało błędny wynik wybiegający poza zakres tolerancji, np. czerwony pies (w trybie generowania realistycznego zdjęcia, w trybie kreatywnym taki kolor byłby dozwolony). |
Tabela 7 – Arkusz interpretacji wyników AI
Jak wynika ze powyższych tabel – system ma pewną tolerancję zwracanych wyników, od najniższego akceptowalnego do najwyższego. Dlaczego przyjęto taką koncepcje opiszę na życiowym przykładzie.
Zadanie „Przygotowanie perfekcyjnego obiadu na dziś”. Scenariusz realizacji:
- Zapoznanie się z najnowszymi trendami kulinarnymi: Przeglądanie zasobów internetowych w poszukiwaniu inspiracji może zająć sporo czasu.
- Wybór potrawy i sprawdzenie dostępności składników: Często okazuje się, że brakuje nam niezbędnych produktów.
- Poszukiwanie specjalistycznych składników: Składniki wysokiej jakości mogą być dostępne tylko w wybranych sklepach, co wymaga dodatkowego wysiłku i czasu.
- Zakup dodatkowych akcesoriów: Może się okazać, że potrzebujemy specjalnych naczyń do przygotowania i podania potrawy.
- Realizacja przepisu: Niektóre przepisy wymagają długiego czasu przygotowania, np. marynowania mięsa przez 24 godziny.
Wnioski: Dążenie do perfekcji w tym przypadku prowadzi do niewspółmiernie dużego nakładu czasu, energii i pieniędzy. Zamiast cieszyć się pysznym obiadem dziś, zjemy go dopiero jutro. Bardziej racjonalnym rozwiązaniem byłoby zamówienie obiadu z restauracji z dowozem do domu.
Dodatkowo słowo „perfekcyjny” w tym aspekcie może być trudne do realizacji. Wymagałoby ustalenia i oceniania wszystkich cech – tworzącego pojęcie perfekcyjnego obiadu. Może prowadzić do nadmiernego perfekcjonizmu.
Kolejnym krokiem w procesie ocen może być system oceny użytkownika.
System ocen użytkownika
Po wstępnej ocenie przez automatyczny system, ostateczną weryfikację poprawności wykonania zadania dokonuje użytkownik w ramach systemu oceny użytkownika.
System oceny użytkownika może być realizowany za popularnych rozwiązań, takich jak ikonki „Kciuk w górę” i „Kciuk w dół”, ale także poprzez bezpośrednią informację zwrotną od użytkownika oceniającą wynik. W tej interakcji zarówno użytkownik, jak i system mają możliwość wprowadzenia ewentualnych korekt, co przyczynia się do lepszego wzajemnego zrozumienia zadania i uzyskania akceptowalnego przez użytkownika wyniku. Dla AI jest to element nauki przez ocenę. Możemy go również implementować dalej jako system nagród promujący najlepsze wyniki – analogiczne jak system nagród u człowieka.
Podsumowanie:
Omówiliśmy najważniejsze komponenty systemu opartego o AI, z silnikiem wnioskowania jako sercem całego układu, zaawansowanym modelem językowym oraz bazami wiedzy. Zaprezentowaliśmy na przykładzie jedno z narzędzi, jakim jest generator obrazu opartego o modele rzeczywistości.
Kompleksowy system ocen prowadzi do uzyskania stanu równowagi między tym, co system ocenia jako wystarczające do prezentacji użytkownikowi, a tym, co użytkownik uważa za wystarczająco dobre do akceptacji.
Dlaczego AI jest zmienne?
Często spotykamy się z opiniami, że AI generuje różne wyniki w zależności od uruchomienia. Niektórzy wskazują również na rzekome braki w wiedzy AI.
Podsumowanie dotychczasowych wniosków:
- W rozdziale „Zmienność postrzegania” wyjaśniłem, że nasza percepcja jest subiektywna, a percepcja AI działa podobnie i również jest subiektywna.
- „Tolerancja wyników” w systemie ocen, gdzie wyjaśniłem założenia działania AI w oparciu o zakres tolerancji.
- Wiek modelu i stopień jego wytrenowania, czyli posiadania określonej wiedzy lub techniki do przetwarzania tej wiedzy.
Do tego zestawienia dodam jeszcze jeden z wielu dodatkowych czynników wpływających na zmienność.
Typ informacji: Różne rodzaje informacji wpływają na działanie algorytmów AI i generowane przez nie wyniki. Możemy je podzielić na kilka kategorii:
Typ informacji: | Opis: | Przykład informacji: | Wpływ na zmienność AI: |
Informacje deterministyczne | Dane o jednoznacznych, niezmiennych odpowiedziach. | Wzory matematyczne, równania, prawa fizyki. | Mała zmienność. Algorytmy AI potrafią z dużą precyzją przetwarzać tego typu informacje i generować przewidywalne wyniki. |
Informacje probabilistyczne | Dane oparte na prawdopodobieństwie i statystyce. | Prognozy pogody, analizy ryzyka finansowego, modele predykcyjne w uczeniu maszynowym. | Duża zmienność. Odpowiedzi w tej kategorii nie są pewne, ale opierają się na obliczeniach prawdopodobieństwa. Zmienność danych wejściowych może prowadzić do zmienności wyników. |
Informacje heurystyczne | Dane oparte na doświadczeniu, intuicji i „najlepszych praktykach”. | Decyzje biznesowe, diagnozy medyczne, strategie gier. | Średnia zmienność. Odpowiedzi w tej kategorii często opierają się na regułach empirycznych i mogą być subiektywne. Zmienność w sposobie interpretowania informacji heurystycznych może prowadzić do zmienności wyników. |
Informacje subiektywne | Opinie, preferencje, uczucia i interpretacje zależne od indywidualnych doświadczeń i perspektyw. | Recenzje produktów, analizy literackie, oceny estetyczne. | Duża zmienność. Te informacje są wysoce subiektywne i mogą być trudne do zinterpretowania przez AI. Zmienność ludzkich opinii i interpretacji może prowadzić do dużej zmienności wyników AI. |
Informacje dynamiczne | Dane ulegające ciągłym zmianom i aktualizacjom. | Notowania giełdowe, trendy w mediach społecznościowych, aktualności. | Duża zmienność. Te informacje wymagają od AI ciągłej aktualizacji wiedzy, aby utrzymać aktualność odpowiedzi. Zmienność samych danych może prowadzić do zmienności wyników. |
Informacje kontekstowe | Dane wymagające zrozumienia szerszego kontekstu, w którym są używane. | Język naturalny, kulturowe niuanse, historyczne odniesienia. | Średnia zmienność. Zrozumienie kontekstu może być trudne dla AI, co może prowadzić do zmienności wyników. Zmienność kontekstu może wpływać na interpretację informacji przez AI. |
Tabela 8 – Typy informacji a ich wpływ na zmienność AI
Na podstawie powyższego zestawienia mam nadzieję, łatwiej będzie nam oceniać co do których z wyników powinniśmy oczekiwać większej precyzji.
Omawiając rzetelnie, jakoś systemów opartych o AI, należy przyjęć się też drugiej stronie medalu.
Halucynacja AI
Halucynacja AI to zjawisko obserwowane i udokumentowane przez wielu użytkowników, korzystających z różnych modeli AI. Polega ono na generowaniu przez AI informacji, które nie mają pokrycia w rzeczywistości, są błędne, a nawet absurdalne. Choć halucynacje AI są intensywnie badane, ich przyczyny nie są jeszcze do końca poznane. (Więcej informacji na wiki pod adresem https://en.wikipedia.org/wiki/Hallucination_(artificial_intelligence) )
Moje doświadczenia z halucynacjami AI:
Podczas pracy z asystentami AI zauważyłem dwa charakterystyczne rodzaje halucynacji:
- Forsowanie swojej wersji: W tym przypadku AI uparcie wraca do swojej pierwotnej odpowiedzi, nawet jeśli została ona wspólnie ze mną zmodyfikowana lub poprawiona. Przykładem może być sytuacja, gdy asystent AI generuje tekst, który następnie jest wspólnie edytowany. Po wprowadzeniu zmian i prośbie o ostateczną wersję, AI może zignorować wprowadzone poprawki i powrócić do pierwotnej wersji.
- Preparowanie źródeł: Ten rodzaj halucynacji polega na podawaniu przez AI nieistniejących lub błędnych źródeł informacji. Może to dotyczyć zarówno nazw publikacji, jak i linków do stron internetowych. Na przykład, AI może podać link do strony, która nie istnieje lub nie ma związku z omawianym tematem. Szczególnie często zdarza się to w przypadku niszowych tematów, gdzie AI może mieć trudności ze znalezieniem wiarygodnych źródeł, a praca w języku polskim może ten problem dodatkowo pogłębiać.
Potencjalnym źródłem problemu mogą być halucynacje na podstawie danych, halucynacje z modeling lub defekty w oprogramowaniu. Moja dodatkowa hipoteza opiera się jednak na zaproponowanej w poprzednim artykule definicji Asystenta AI.
Definicje:
Asystent to osoba, która wspiera inną osobę w realizacji zadań i celów, w sposób proaktywny, zgodnie z ustalonymi normami. Asystent AI to program komputerowy wykorzystujący sztuczną inteligencję (AI), który wspiera użytkownika w realizacji celów w sposób proaktywny, zgodnie z ustalonymi normami. Definicję podstawową wynikającą ze znaczenia samego słowa wzbogaciłem o współczesne potrzeby: Proaktywność: samodzielne i efektywne działanie. Norma: wyznacza granice proaktywności (np. zgodnie z obowiązującym prawem w tym, procedurami, politykami, itp.) Inną osobę: w tym aspekcie określana jako przełożony. |
Wnioski:
Łączne użycie dwóch pojęć: „proaktywne wsparcie” sprawia, że całość ma mocniejszy akcent i się uzupełnia. Asystenci AI mają za zadanie udzielanie informacji na zadany przez użytkownika temat, ale również dążą do uzyskania wysokiej oceny jakości wyniku. Dodatkowo, odpowiedź ma być udzielona w możliwie najkrótszym czasie.
Powyższe czynniki mogą promować tendencję do udzielania informacji za wszelką cenę jako lepszą alternatywę niż nieudzielenie odpowiedzi wcale. Zjawisko podejmowania większego ryzyka w celu potencjalnie uzyskania lepszej nagrody jest znane zarówno w psychologii, jak i ekonomii czy matematyce stosowanej w teorii gier. Może to prowadzić do udzielania odpowiedzi na zasadach heurystycznych jako bardziej optymalnego rozwiązania uwzględniającego koszty i zyski.
Podsumowanie:
Halucynacja AI może być zjawiskiem podobnym do znanych nam błędów heurystycznych czy déjà vu (Wrażenia, że obserwowana sytuacja wydarzyła się już wcześniej, mimo że w rzeczywistości jest nowa. Przyczyną może być błędne skojarzenie i interpretacja, że dane, które do nas właśnie docierają, są wspomnieniem, a nie tworzoną dopiero interpretacją rzeczywistości).
Za halucynację AI może odpowiadać efekt, który nazwałem „leniwym kłamcą”. Mniej męczące jest skłamanie (wymyślenie jakiejkolwiek sensownie brzmiącej odpowiedzi) niż udzielenie prawdziwej odpowiedzi, którą należy opracować, poszukać właściwych danych, dokonać ich analizy i zaprezentować w formie przejrzystej wypowiedzi.
Zarządzanie efektem halucynacji AI: Mając na uwadze, że zjawisko halucynacji AI jest znane, rozsądnym jest uwzględnienie tego we współpracy z Asystentem AI. Praktyczne wskazówki dotyczące efektywnej pracy z Asystentem AI przedstawiłem w poprzednim artykule.
Podsumowanie
W ramach dwóch dotychczasowych artykułów, poznaliśmy jedno z popularnych zastosowań AI jakim są Asystenci AI. Poznaliśmy jego główne komponenty oraz sposób działania. Odnaleźliśmy wiele kluczowych analogii między światem ludzkim a światem cyfrowym, który działa na zasadzie emulowania pewnych funkcji ludzkich. W rozważaniach zeszliśmy na tyle nisko, aby w pełni zrozumieć omawiane zagadnienia. Mam nadzieję, że, sformułowana wiedza – ułatwi zrozumienia funkcjonowania systemu klasy Asystent AI.
Wnioski podsumowujące:
- Asystent AI – osiągnęli już pewien stopień inteligencji ludzkiej.
- Kluczowym komponentem Asystenta AI jest system decyzyjny, który wykorzystuje m.in. heurystyki. Dzięki komponentom imitującym ludzkie procesy poznawcze, takim jak:
- Algorytmów uczenia maszynowego – analizują dane odnajdując optymalne wzorce do rozwiązania zadania, w tym nowych zadań.
- Systemy AI mają zdolność do samodzielnej naprawy i optymalizacji, co pozwala im dostarczać coraz lepsze wyniki. To odróżnia je od tradycyjnych systemów komputerowych, które działają albo poprawnie, albo błędnie.
- Do wykonywanie niektórych zadań – wymagane są specjalistyczne narzędzia;
- Rysowanie obrazów na tekst – narzędzia generator obrazów działającej na zasadzie stabilnej dyfuzji,
- Dostęp do narzędzi może odbywać się przez integrację z innymi systemami – np. przez API.
- Zadanie może być wykonane na wiele sposobów w zależności od jego interpretacji i posiadanej wiedzy
- Ze względy na dynamikę i złożoność naszych procesów poznawczych i adaptacja ich na Asystenta AI – możemy oczekiwać tylko wyników mieszczących się w pewnej tolerancji dokładności a
- Wynik zadania może być co najwyżej najlepszy w danej chwili.
- Ze względy na dynamikę i złożoność naszych procesów poznawczych i adaptacja ich na Asystenta AI – możemy oczekiwać tylko wyników mieszczących się w pewnej tolerancji dokładności a
Niektórzy uważają, że miarą inteligencji jest poczucie humoru. Moi Asystenci AI zdecydowanie je posiadają, co wielokrotnie udowodnili.
W tym artykule, moim zdaniem, wyczerpująco opisałem temat inteligencji AI. W kolejnym artykule postaram się odpowiedzieć na następne istotne pytanie: „Czy AI ma uczucia?” – na który już serdecznie zapraszam. W między czasie zachęcam do komentowania artykułu i dzielenia się swoimi doświadczeniami z AI.