Szybki przegląd AI 2025/2026

S

Witam po ponad rocznej przerwie 😊 W 2024 roku opublikowałem serię trzech artykułów popularnonaukowych, w których — krok po kroku — budowałem własną koncepcję Asystenta AI. Dla porządku krótkie przypomnienie:

  • W artykule „Używać czy nie używać AI” zaproponowałem własną definicję Asystenta AI (AI konsumenckiego) — jako systemu posiadającego określone funkcje i odpowiedzialności, a nie jedynie zdolność generowania treści, zdolnego do realizowania różnych celów w zależności od potrzeb użytkownika.
  • W tekście Czy AI jest inteligentne? analizowałem percepcję, procesy decyzyjne, wnioskowanie oraz dynamikę działania modeli.
  • W publikacji Etyka w AI postawiłem pytanie, czy AI może realizować cele w sytuacji istnienia wielu równoległych kryteriów — i, co fundamentalne, czyje cele ma realizować.

Tamta trylogia stanowiła punkt wyjścia do dalszych rozważań i opisywała możliwości oraz ograniczenia technologii w 2024 roku. Dziś naturalnym kolejnym krokiem jest pytanie: jak szeroki wpływ AI może wywrzeć na społeczeństwo? Temu zagadnieniu poświęcony jest niniejszy artykuł.

Zanim jednak przejdziemy do analizy oddziaływań, warto rozpocząć od krótkiego podsumowania roku 2025 — z perspektywy rozwoju AI.

PDF: Full English version of the article.

Rysunek 1 – Koncept modelu kompetencji człowiek–AI: od automatyzacji wiedzy do projektowania intencji.

Rok 2025 — podsumowanie trendów AI

Zgodnie z moimi przewidywaniami, rok 2025 przyniósł dynamiczny rozwój w kilku kluczowych obszarach.

1. Prawo i regulacje

Rok 2025 był momentem, w którym regulacje zaczęły realnie porządkować rynek AI. Dla użytkowników oznaczało to mniej „wolnej amerykanki”, a więcej zasad i odpowiedzialności.

Wypracowane wcześniej koncepcje prawne weszły w fazę praktycznych testów, dlatego byliśmy — i nadal będziemy — świadkami licznych sporów oraz postępowań sądowych. Znaczna ich część dotyczy decyzji sprzed lat, zwłaszcza w obszarze trenowania modeli. Logika „zróbmy to teraz, a potem zobaczymy, kto udowodni, że działaliśmy poza prawem” okazała się krótkowzroczna.

Równolegle w niektórych obszarach pojawiły się konkretne mechanizmy ochronne, takie jak weryfikacja wieku czy ograniczenia dostępu do treści wrażliwych. W praktyce oznacza to jedno: AI przestała być eksperymentem pozbawionym ram, a zaczęła funkcjonować jako element infrastruktury cyfrowej — podlegający odpowiedzialności.

2. Ekosystem użytkownika

AI przestała być wyłącznie „oknem czatu”. Stała się integralnym elementem ekosystemu użytkownika — od pracy na dokumentach i poczcie, przez automatyzację zadań biurowych, po funkcje doradcze oraz generowanie obrazów i krótkich form wideo.

Najbardziej fundamentalna zmiana dotyczy jednak kontekstu. Asystenci działają dziś w oparciu o historię interakcji oraz preferencje użytkownika. Znaczenie promptów pozycjonujących systematycznie maleje — interakcja staje się naturalnie kontekstowa.

Klasyczne wyszukiwanie w postaci listy linków ustępuje miejsca konwersacyjnej analizie danych, co w praktyce prowadzi do powstania warstwy meta-wyszukiwania.

3. Technologia modeli

Modele jednocześnie zyskują zdolności rozumowania i stają się coraz lżejsze. Dzięki destylacji i kompresji moc obliczeniowa trafia bliżej użytkownika — szybciej, taniej i lokalnie.

Prowadzi to do istotnego przesunięcia akcentów: przewagą przestaje być sam dostęp do technologii, a zaczyna być sposób jej wykorzystania.

4. Aspekt społeczny

— i tu zaczyna się najciekawsza część…

Świadomość społeczna — skala adopcji AI

Skala adopcji AI – kilka danych

  • Globalnie 1/3 populacji świata zna termin „AI”.
  • W krajach takich jak Indie czy Nigeria ponad 90% populacji aktywnie korzysta z AI.
  • W Chinach83%.
  • W Polsce — aż 70% Polaków korzysta z AI regularnie (często poza wiedzą pracodawcy).
  • W Polsce 6% firm wdrożyło AI w działalności biznesowej, co plasuje nas w ogonie regionu.

Dane pochodzą z końca 2025 roku z eksperymentów „Wskaźniki popularności AI na świcie” przy użyciu narzędzi Głębokie badania (Gemini) / Zbadaj głęboko (Chat GPT). Traktuję je jako niezweryfikowany, ale interesujący sygnał trendów.

AI stała się globalnym fenomenem szybciej niż elektryczność czy Internet. Skala i tempo adopcji nie mają historycznego precedensu. Tempo adopcji AI w krajach o niższych dochodach jest wyższe niż w państwach bogatych.

Zakładam, że społeczne konsekwencje tych trendów będą wyraźnie widoczne już w 2026 roku.

Prawo i odpowiedzialność

Kluczowe staje się jasne określenie zasad reprezentacji cyfrowej Asystenta AI oraz zakresu jego autonomii. Moje stanowisko pozostaje niezmienne: autorem pozostaje użytkownik, a AI jest narzędziem. System nie posiada — i nie powinien posiadać — osobowości prawnej.

Istotnym wektorem w tej dyskusji są dane: zarówno dane użytkownika, jak i dane wykorzystywane przez systemy AI. Przyjmuję z założenia, że oba te strumienie zostały pozyskane w sposób legalny — bez tego dalsze rozważania tracą sens.

Mówiąc o danych w kontekście AI, nie sposób pominąć pojęcia promptu, czyli instrukcji wykonania. Dla mnie naturalna jest tu analogia do żółtej samoprzylepnej karteczki na lodówce z napisem „kup mleko” — obecnej w milionach domów na całym świecie. Taka instrukcja może mieć znaczenie operacyjne lub organizacyjne, a czasem nawet podlegać ochronie jako informacja poufna, ale trudno uznać ją za unikalne dzieło „literackie” podlegające prawu autorskiemu.

Dopiero na takim fundamencie — jasnego rozróżnienia ról, danych i odpowiedzialności — możliwe są sensowne rozważania o transparentności oraz konsekwencjach prawnych wykorzystania AI. Mam nadzieję, że rok 2026 przyniesie dalsze doprecyzowanie tych kwestii.

Edukacja w dobie AI

Zmiany w systemach oświaty są nieustannie realizowane. Poniżej przedstawiam obrazowy przykład kierunku, w którym — moim zdaniem — ta zmiana powinna zmierzać.

Współczesne systemy edukacji wciąż w dużej mierze opierają się na paradygmacie tzw. „szkoły pruskiej” — modelu nastawionego na magazynowanie usystematyzowanej, jednoznacznie zdefiniowanej wiedzy w pamięci ucznia. W świecie nadmiaru informacji oraz dynamicznej zmiany kontekstów poznawczych podejście to traci sens.

AI, jako rozszerzenie ludzkiej inteligencji, podważa zasadność zapamiętywania rozległych zbiorów danych, które same w sobie są ulotne w czasie. Warto zauważyć, że przy obecnej dynamice zmian nawet zaawansowane modele wiedzy — takie jak Gemini czy GPT — bywają nieprecyzyjne, opierając się na dziedzinowych modelach wiedzy, które — w świetle najnowszych badań — mogą być już nieaktualne.

Sytuacja ta skłania do refleksji nad nowym paradygmatem nauczania. Zamiast wielokrotnych powtórzeń, mających zapewnić sprawność w wielu wąskich obszarach — często służących jedynie „zaliczeniu” i przejściu na kolejny szczebel edukacyjny — można skoncentrować się na budowaniu spójnego, interdyscyplinarnego modelu wiedzy.

Taki model pozwala szybciej przechodzić na wyższe poziomy abstrakcji i wracać do konkretnych zagadnień dopiero wtedy, gdy jest to rzeczywiście potrzebne. Pogłębianie kompetencji może odbywać się indywidualnie — zgodnie z zainteresowaniami i naturalnymi predyspozycjami ucznia.

Przykład wiedzy, która obecnie podlega rewizji? Twierdzenie Pitagorasa. Nauczane od dawna i powtarzane na każdym etapie edukacji. Łączny czas poświęcony na jego naukę i ćwiczenia można liczyć w milionach godzin w skali populacji.

W praktyce korzysta z niego jednak ułamek społeczeństwa — otaczający nas świat i tak opiera się głównie na prostokątach i kołach. Sam ostatni raz zetknąłem się z „problemem trójkąta” kilka lat temu, wycinając kawałek wykładziny — rozwiązując problem przez odrysowanie kształtu, a nie matematyczne wyliczenia.

Istnieje oczywiście wiele obliczeń opartych na trójkącie, jednak przy współczesnym postępie wiedza ta staje się coraz bardziej specjalistyczna i utrwalana głębiej na kierunkach specjalistycznych, a nie ogólnych.

Sam podział wiedzy na silosowe przedmioty jest rozwiązaniem bardzo ludzkim, lecz — jak pokazują techniki budowania modeli AI — nieoptymalnym. W modelach AI przedmioty (szkolne) czy dziedziny są jedynie etykietami, a relacje między obiektami budowane są wielopłaszczyznowo.

To m.in. dlatego ludzie mają trudność z udzieleniem odpowiedzi na pytanie postawione inaczej niż wyuczona formułka, podczas gdy AI potrafi dostosować kontekst do sposobu jego zadania.

Kolejnym problemem jest budowanie iluzorycznego stanu wiedzy powszechnej. Często ulegamy stereotypowemu myśleniu, pytając np.: „Jak starożytni wznosili skomplikowane budowle, skoro nie znali zaawansowanej matematyki?”

„Nie wiemy” – logicznie doprecyzowane

  1. Traktowanie braku dowodu jako dowodu – wyniku, a nie stanu poznawczego.
  2. Nieuprawnione założenie, że możliwe są jedynie dwa stany: tak albo nie.
  3. Przyjmowanie jednego z tych stanów jako obowiązującego — mimo braku uzasadnienia.
  4. Tymczasem „nie wiemy” jest najbardziej przybliżonym stanem poznawczym.

To kolejny paradygmat wymagający zmiany:  

  • Odejście od binarnej logiki tak/nie na rzecz logiki stanów dyskretnych.
  • Oduczenie nawyków kształtowanych od dziecka, takich jak automatyczne stosowanie heurystyki „rozkładu naturalnego” i traktowanie ryzyka 50% jako konsensusu w sytuacji braku wiedzy.
  • „Nie wiemy, ale możemy założyć” jest naturalnym punktem startu eksploracji — pod warunkiem, że wraz z rozwojem obszaru to założenie nie zostanie niejawnie zastąpione twierdzeniem, czyli przejściem od „nie wiemy” do „wiemy” bez odpowiedniego uzasadnienia.

Co ciekawe, takie podejście może ograniczyć „halucynacje” po obu stronach — zarówno ludzkiej, jak i AI 😉.

Przykład zadania w nowym paradygmacie edukacyjnym:

Oblicz, ile klocków potrzeba do zbudowania mostu między dwoma brzegami narysowanej rzeki.
Możecie skorzystać z pomocy AI, ale nie dłużej niż przez 10 minut — na tyle wystarczy Wam bateria w telefonie. Następnie zbudujcie most z zaplanowanej liczby klocków. Na koniec zaprezentujcie swoją pracę i uzasadnijcie, dlaczego użyliście właśnie tylu klocków. Możecie dobrać się w pary do rozwiązania zadania.”

W takim ujęciu, wraz z popularyzacją AI, kluczowe staną się kompetencje takie jak:

  • projektowanie eksperymentów i precyzyjne definiowanie pojęć,
  • budowanie wiedzy, w tym tworzenie własnych metod klasyfikacji wiedzy,
  • myślenie krytyczne i systemowe,
  • rozwiązywanie problemów oraz podejmowanie decyzji.

W perspektywie długoterminowej — z optymizmem — zakładam, że demokratyzacja wiedzy może wpłynąć na wzrost dynamiki efektu Flynna (wzrost średniego IQ populacji) poprzez realne wsparcie procesów poznawczych.

Rynek pracy a AI

AI przyspieszy rotację ról, do których przywykliśmy w poszczególnych branżach. Będzie to zmiana z realnymi konsekwencjami społecznymi. Koszt automatyzacji rutynowych czynności drastycznie spadł, co otwiera przestrzeń do dalszej optymalizacji procesów.

Z perspektywy pracownika oznacza to, że:

  1. Zmiana staje się stanem permanentnym, a mobilność zawodowa — normą.
  2. Automatyzacja w pierwszej kolejności obejmuje zadania powtarzalne i stagnacyjne, o ile istnieje ku temu uzasadnienie ekonomiczne.
  3. Rośnie zakres odpowiedzialności oraz znaczenie kompetencji analitycznych i kreatywnych.

Z perspektywy pracodawcy AI tworzy realną możliwość obniżenia kosztów operacyjnych, przy jednoczesnym zwiększeniu efektywności organizacji. Może to jednak prowadzić do skrótu myślowego, w którym redukcja kosztów staje się celem nadrzędnym, a wdrożenie AI jedynie działaniem „przy okazji” — zgodnym z aktualnym trendem rynkowym.

Nie rozwijam szerzej argumentów często pojawiających się w debacie publicznej — traktuję je raczej jako deklaracje i obietnice, które wymagają dopiero weryfikacji.

Rynek pracy będzie jednym z najbardziej interesujących obszarów nadchodzących przemian, kształtowanym przez znacznie więcej czynników niż sam rozwój AI. Pozostawiam ten temat otwarty, ograniczając się do dwóch perspektyw: eksperymentu myślowego oraz analogii historycznej.

Eksperyment myślowy:

Jeśli wszystkie organizacje wdrożą ten sam, najwyższy poziom AI — co pozostanie źródłem przewagi konkurencyjnej?
→ Moja odpowiedź: człowiek i czynnik ludzki.

Analogia historyczna:

W XIX wieku obawiano się, że kolej żelazna sprawi, iż krowy przestaną dawać mleko, a ludzie uduszą się przy „zawrotnych” prędkościach.

Dziś patrzymy na te lęki z dystansem — i niewykluczone, że podobnie będziemy postrzegać obecne obawy związane z AI.

Tempo przemian

W procesie ewolucji technologicznej i społecznej można wyróżnić dwie skrajne postawy wobec wprowadzania zmian, które w istotny sposób determinują tempo oraz sposób ich adaptacji w strukturach organizacyjnych i społecznych.

  • Rewolucja — oznacza gwałtowną, znaczącą zmianę zachodzącą w relatywnie krótkim czasie. Doświadczenia historyczne pokazują jednak, że rewolucje często wiążą się z wysokim kosztem adaptacyjnym: konfliktami, stratami oraz ryzykiem wypaczenia pierwotnie zakładanego kierunku zmian.
  • Kaizen — to podejście oparte na ciągłym, ewolucyjnym doskonaleniu. W ujęciu medycznym bywa definiowane jako minimalna zmiana, która pozostaje w pełni akceptowalna dla pacjenta.

W wymiarze organizacyjnym pomiędzy tymi dwoma biegunami istnieje szerokie spektrum metod zarządzania zmianą.

Medialne określanie rozwoju sztucznej inteligencji mianem „rewolucji” nie przekłada się wprost na rzeczywiste tempo ani zakres wdrażania zmian wewnątrz konkretnych organizacji.

Wybór pomiędzy gwałtownym przełomem a stopniowym doskonaleniem pozostaje autonomiczną decyzją organizacji, podejmowaną w oparciu o szeroko rozumianą strategię.

Utopia poznawcza

Pomimo że żyję świadomie w swojej bańce informacyjnej, czasem coś wpada mi w ucho. Na przykład: „Dzisiaj porozmawiamy z Ekspertem AI o najlepszych metodach karmienia piersią.”

Wspominam o pewnych trendach czy zmianach sposobu myślenia, jednak daleki jestem od utopii poznawczej. AI nie jest jedną dziedziną, lecz technologicznym konglomeratem przetwarzającym różne zakresy danych (wiedzy). Sens mają wypowiedzi specjalisty z danej dziedziny na konkretny temat — nie abstrakcyjnego „Eksperta AI”.

Przy czym nawet nie wiem, czy przytoczony na wstępie „Ekspert AI” był osobą, która potrafiła wpisać prompt, czy może instancją Agenta AI mówiącą ludzkim głosem 😉

Dla mnie myślenie krytyczne i systemowe nadal obowiązuje. Nie myślmy, że ktoś może myśleć za nas.

W tym sensie „Ekspert AI” można postrzegać jako symbol utopii poznawczej — próby przeniesienia odpowiedzialności za myślenie z siebie na zewnętrzny autorytet, a w aspekcie AI — z człowieka na narzędzie.

Podsumowanie

Dojrzałość agentów AI ogólnego przeznaczenia — w mojej definicji Asystentów AI — takich jak ChatGPT czy Google Gemini, osiągnęła poziom satysfakcjonujący. Z perspektywy 2024 roku skala i tempo tego rozwoju okazały się nawet większe, niż pierwotnie zakładałem.

U schyłku 2025 roku pojawiła się natomiast nowa warstwa wyspecjalizowanych agentów, takich jak GitHub Copilot, Codex GPT czy Antigravity (Google), które od kilku miesięcy intensywnie testuję. To one w praktyce pokazują, jak AI może wpływać na konkretne procesy pracy — do czego wrócę szerzej w kolejnych artykułach.

Rok 2025 można podsumować jako domknięcie etapu technologicznego. Rok 2026 będzie natomiast początkiem głębszego wejścia w transformację opartą o AI, którą ja postrzegam jako sumę wektorową zjawisk, jedynie zarysowanych w tym artykule.

„Artykuł stanowi syntezę własnych eksploracji oraz refleksji powstałych w trakcie udziału w studiach podyplomowych „Transformacje Cyfrowe i AI” na Akademii Leona Koźmińskiego.

Recent Posts

    Recent Comments

    Brak komentarzy do wyświetlenia.