


W ciągu ostatnich kilku miesięcy społeczność sztucznej inteligencji przeszła gorącą debatę wywołaną przez dwa wpływowe artykuły badawcze opublikowane przez Apple. Pierwszy z nich, "GSM-Symbolic (październik 2024 r.) i drugi, "Iluzja myślenia (czerwiec 2025 r.), zakwestionowały rzekome możliwości rozumowania dużych modeli językowych, wywołując mieszane reakcje w całej branży.
Jak już przeanalizowaliśmy w naszym poprzednim artykule na temat "Iluzja postępu: symulacja ogólnej sztucznej inteligencji bez jej osiągnięcia".kwestia sztucznego rozumowania dotyka sedna tego, co uważamy za inteligencję w maszynach.
Badacze Apple przeprowadzili systematyczną analizę dużych modeli rozumowania (LRM) - modeli, które generują szczegółowe ślady rozumowania przed udzieleniem odpowiedzi. Wyniki były zaskakujące i dla wielu niepokojące.
W badaniu poddano najbardziej zaawansowane modele klasycznym zagadkom algorytmicznym, takim jak:

Wyniki pokazały, że nawet niewielkie zmiany w sformułowaniu problemu prowadzą do znacznych różnic w wydajności, co sugeruje niepokojącą kruchość rozumowania. Jak donosi AppleInsider"wydajność wszystkich modeli spada, gdy zmieniane są tylko wartości liczbowe w pytaniach testowych GSM-Symbolic".
Na odpowiedź ze strony społeczności AI nie trzeba było długo czekać. Alex Lawsen z Open Philanthropy, we współpracy z Claude Opus z Anthropic, opublikował szczegółową odpowiedź zatytułowaną "Iluzja myślenia".kwestionując metodologię i wnioski z badania Apple.
Kiedy Lawsen powtórzył testy z alternatywną metodologią - prosząc modele o wygenerowanie funkcji rekurencyjnych zamiast wypisywania wszystkich ruchów - wyniki były diametralnie różne. Modele takie jak Claude, Gemini i GPT poprawnie rozwiązały problemy typu Tower of Hanoi z 15 rekordami, znacznie przekraczając złożoność, w której Apple zgłosiło zero sukcesów.
Gary Marcuswieloletni krytyk umiejętności rozumowania LLM, przyjął odkrycia Apple jako potwierdzenie swojej 20-letniej tezy. Według Marcusa, LLM nadal zmagają się z "przesunięciem dystrybucji" - zdolnością do uogólniania poza dane treningowe - pozostając jednocześnie "dobrymi rozwiązywaczami problemów, które zostały już rozwiązane".
Dyskusja rozprzestrzeniła się również na wyspecjalizowane społeczności, takie jak LocalLlama na Redditgdzie deweloperzy i badacze debatują nad praktycznymi implikacjami dla modeli open-source i lokalnych wdrożeń.
Debata ta nie ma charakteru czysto akademickiego. Ma ona bezpośrednie implikacje dla:
Jak podkreślono w kilku spostrzeżeniach technicznychistnieje rosnące zapotrzebowanie na podejścia hybrydowe, które łączą:
Trywialny przykład: asystent AI pomagający w prowadzeniu księgowości. Model językowy rozumie, kiedy pytasz "ile wydałem na podróże w tym miesiącu?" i wyodrębnia odpowiednie parametry (kategoria: podróże, okres: ten miesiąc). Ale zapytanie SQL, które odpytuje bazę danych, oblicza sumę i sprawdza ograniczenia fiskalne? To robi deterministyczny kod, a nie model neuronowy.
Nie umknęło uwadze obserwatorów, że dokument Apple został opublikowany na krótko przed WWDC, co rodzi pytania o strategiczne motywacje. Jak wynika zanaliza przeprowadzona przez 9to5Mac"czas publikacji artykułu Apple - tuż przed WWDC - podniósł kilka brwi. Czy był to kamień milowy w badaniach, czy też strategiczne posunięcie mające na celu zmianę pozycji Apple w szerszym krajobrazie sztucznej inteligencji?".
Debata wywołana dokumentami Apple przypomina nam, że wciąż jesteśmy na wczesnym etapie rozumienia sztucznej inteligencji. Jak wskazaliśmy w naszym poprzednim artykulerozróżnienie między symulacją a autentycznym rozumowaniem pozostaje jednym z najbardziej złożonych wyzwań naszych czasów.
Prawdziwą lekcją nie jest to, czy LLM mogą "rozumować" w ludzkim tego słowa znaczeniu, ale raczej to, jak możemy budować systemy, które wykorzystują ich mocne strony, jednocześnie kompensując ich ograniczenia. W świecie, w którym sztuczna inteligencja już teraz przekształca całe sektory, pytanie nie brzmi już, czy te narzędzia są "inteligentne", ale jak z nich korzystać w sposób skuteczny i odpowiedzialny.
Przyszłość sztucznej inteligencji w przedsiębiorstwach prawdopodobnie nie będzie leżeć w jednym rewolucyjnym podejściu, ale w inteligentnej orkiestracji kilku uzupełniających się technologii. W tym scenariuszu zdolność do krytycznej i uczciwej oceny możliwości naszych narzędzi sama w sobie staje się przewagą konkurencyjną.
Aby uzyskać wgląd w strategię AI Twojej organizacji i wdrożyć solidne rozwiązania, nasz zespół ekspertów jest dostępny na indywidualne konsultacje.