Iluzja rozumowania: debata, która wstrząsa światem sztucznej inteligencji
Apple publikuje dwa druzgocące dokumenty - "GSM-Symbolic" (październik 2024 r.) i "The Illusion of Thinking" (czerwiec 2025 r.) - które pokazują, jak LLM zawodzi w przypadku małych odmian klasycznych problemów (Wieża Hanoi, przeprawa przez rzekę): "wydajność spada, gdy zmieniane są tylko wartości liczbowe". Zerowy sukces na złożonej Wieży w Hanoi. Ale Alex Lawsen (Open Philanthropy) ripostuje "The Illusion of Thinking" demonstrując nieudaną metodologię: porażki były limitami wyjściowymi tokenów, a nie załamaniem rozumowania, automatyczne skrypty błędnie klasyfikowały częściowe poprawne wyjścia, niektóre zagadki były matematycznie nierozwiązywalne. Powtarzając testy z funkcjami rekurencyjnymi zamiast wypisywania ruchów, Claude/Gemini/GPT rozwiązali Tower of Hanoi w 15 rekordach. Gary Marcus przychyla się do tezy Apple o "zmianie dystrybucji", ale artykuł sprzed WWDC rodzi strategiczne pytania. Implikacje biznesowe: jak bardzo zaufać sztucznej inteligencji w krytycznych zadaniach? Rozwiązanie: podejście neurosymboliczne: sieci neuronowe do rozpoznawania wzorców + język, systemy symboliczne do logiki formalnej. Przykład: Księgowość AI rozumie "ile kosztów podróży?", ale SQL / obliczenia / audyty podatkowe = kod deterministyczny.