Szkolenie modeli sztucznej inteligencji stanowi jedno z najbardziej złożonych wyzwań we współczesnym rozwoju technologicznym. Efektywne szkolenie modelu to znacznie więcej niż prosta kwestia algorytmiczna - wymaga ono metodycznego i multidyscyplinarnego podejścia, które integruje dane, naukę o danych, wiedzę dziedzinową i inżynierię oprogramowania. Jak wskazuje James Luke w swoim przełomowym tekście"Beyond Algorithms: Delivering AI for Business", sukces wdrożenia sztucznej inteligencji zależy w znacznie większym stopniu od zarządzania danymi i projektowania systemowego niż od samych algorytmów. Krajobraz szybko się zmienia, a innowacje takie jak model DeepSeek-R1 na nowo definiują koszty i dostępność.
Wbrew temu, co się często sądzi, ilość danych nie zawsze jest czynnikiem decydującym o sukcesie. Jakość i reprezentatywność danych są znacznie ważniejsze. W tym kontekście kluczowe znaczenie ma integracja różnych źródeł:
Ta integracja tworzy kompleksową bazę szkoleniową, która obejmuje rzeczywiste scenariusze przy jednoczesnym zachowaniu standardów etycznych i prywatności.
Proces "porządkowania danych" stanowi do 80 procent wysiłku wymaganego w projektach sztucznej inteligencji. Faza ta obejmuje:
Wybór architektury modelu musi być podyktowany specyfiką rozwiązywanego problemu, a nie osobistymi tendencjami czy preferencjami. Różne rodzaje problemów wymagają różnych podejść:
Optymalizacja architektury wymaga systematycznej oceny różnych konfiguracji, z naciskiem na zrównoważenie wydajności i wymagań obliczeniowych, co stało się jeszcze bardziej istotne wraz z pojawieniem się modeli takich jak DeepSeek-R1, które oferują zaawansowane możliwości rozumowania przy znacznie niższych kosztach.
Destylacja stała się szczególnie potężnym narzędziem w obecnym ekosystemie sztucznej inteligencji. Proces ten umożliwia tworzenie mniejszych, bardziej szczegółowych modeli, które dziedziczą możliwości rozumowania większych, bardziej złożonych modeli, takich jak DeepSeek-R1.
Jak pokazano w przypadku DeepSeek,firma destylowała swoje możliwości rozumowania na kilku mniejszych modelach, w tym modelach open-source z rodziny Llama firmy Meta i rodziny Qwen firmy Alibaba. Te mniejsze modele można następnie zoptymalizować pod kątem konkretnych zadań, przyspieszając trend w kierunku szybkich i wyspecjalizowanych modeli.
Sam Witteveen, programista uczenia maszynowego, zauważa: "Zaczynamy wkraczać w świat, w którym ludzie używają wielu modeli. Nie używają tylko jednego modelu przez cały czas". Obejmuje to niedrogie modele zamknięte, takie jak Gemini Flash i GPT-4o Mini, które "działają bardzo dobrze w 80% przypadków użycia".
Zamiast trenować oddzielne modele dla powiązanych umiejętności, uczenie wielozadaniowe pozwala modelom dzielić się wiedzą między różnymi funkcjami:
W przypadku firm działających w bardzo specyficznych dziedzinach, w których informacje nie są powszechnie dostępne w Internecie lub w książkach zwykle używanych do szkolenia modeli językowych, skuteczną opcją jest nadzorowane dostrajanie (SFT).
DeepSeek pokazał, że możliwe jest osiągnięcie dobrych wyników z "tysiącami" zbiorów danych pytań i odpowiedzi. Na przykład inżynier IBM Chris Hay pokazał, jak skonfigurował mały model przy użyciu własnych zestawów danych matematycznych i uzyskał niezwykle szybkie odpowiedzi, które przekroczyły wydajność modelu o1 OpenAI w tych samych zadaniach.
Firmy, które chcą trenować model z dalszym dostosowaniem do określonych preferencji - na przykład, aby chatbot obsługi klienta był empatyczny, ale zwięzły - będą chciały wdrożyć techniki uczenia ze wzmocnieniem (RL). Podejście to jest szczególnie przydatne, jeśli firma chce, aby jej chatbot dostosowywał swój ton i zalecenia w oparciu o opinie użytkowników.
Dla większości firm Retrieval-Augmented Generation (RAG) jest najprostszą i najbezpieczniejszą drogą. Jest to stosunkowo prosty proces, który pozwala organizacjom zakotwiczyć swoje modele z zastrzeżonymi danymi zawartymi w ich bazach danych, zapewniając, że wyniki są dokładne i specyficzne dla domeny.
Takie podejście pomaga również przeciwdziałać niektórym problemom związanym z halucynacjami związanymi z modelami takimi jak DeepSeek, które obecnie mają halucynacje w 14% przypadków w porównaniu do 8% w przypadku modelu o3 OpenAI, zgodnie z badaniem przeprowadzonym przez Vectara.
Połączenie destylacji modeli i RAG jest magiczne dla większości firm, ponieważ stało się niezwykle łatwe do wdrożenia, nawet dla osób o ograniczonych umiejętnościach w zakresie nauki o danych lub programowania.
Skuteczna sztuczna inteligencja jest mierzona nie tylko pod względem surowej dokładności, ale wymaga kompleksowych ram oceny, które uwzględniają:
Najbardziej bezpośrednim skutkiem premiery DeepSeek jest agresywna obniżka cen. Branża technologiczna spodziewała się, że koszty spadną z czasem, ale niewielu przewidywało, jak szybko to nastąpi. DeepSeek pokazał, że potężne, otwarte modele mogą być zarówno tanie, jak i wydajne, tworząc możliwości dla szeroko zakrojonych eksperymentów i opłacalnych wdrożeń.
Amr Awadallah, dyrektor generalny Vectara, podkreślił ten punkt, zauważając, że prawdziwym punktem krytycznym jest nie tylko koszt szkolenia, ale także koszt wnioskowania, który w przypadku DeepSeek wynosi około 1/30 kosztu wnioskowania OpenAI o1 lub o3 na token. "Marże, które OpenAI, Anthropic i Google Gemini były w stanie uchwycić, będą teraz musiały zostać zmniejszone o co najmniej 90 procent, ponieważ nie mogą pozostać konkurencyjne przy tak wysokich cenach" - powiedział Awadallah.
Co więcej, koszty te będą nadal spadać. Dyrektor generalny Anthropic, Dario Amodei, stwierdził niedawno, że koszty opracowywania modeli nadal spadają w tempie około czterokrotności każdego roku. W rezultacie stawka, jaką dostawcy LLM pobierają za ich wykorzystanie, również będzie nadal spadać.
"W pełni oczekuję, że koszty spadną do zera" - powiedział Ashok Srivastava, CDO w Intuit, firmie, która mocno promowała sztuczną inteligencję w swoich ofertach oprogramowania podatkowego i księgowego, takich jak TurboTax i Quickbooks. "... a opóźnienia spadną do zera. Staną się one po prostu podstawowymi możliwościami, z których będziemy mogli korzystać".
DeepSeek i Deep Research firmy OpenAI to coś więcej niż tylko nowe narzędzia w arsenale sztucznej inteligencji - to oznaki głębokiej zmiany, w której firmy będą wdrażać masy specjalnie zbudowanych modeli, które są niezwykle opłacalne, kompetentne i zakorzenione we własnych danych i podejściu firmy.
Dla firm przesłanie jest jasne: narzędzia do tworzenia potężnych aplikacji AI specyficznych dla domeny są w zasięgu ręki. Istnieje ryzyko pozostania w tyle, jeśli nie skorzysta się z tych narzędzi. Prawdziwy sukces będzie jednak zależeć od sposobu selekcjonowania danych, wykorzystywania technik takich jak RAG i destylacja oraz wprowadzania innowacji wykraczających poza fazę wstępnego szkolenia.
Jak ujął to Packer z AmEx: firmy, które prawidłowo zarządzają swoimi danymi, będą tymi, które poprowadzą kolejną falę innowacji w dziedzinie sztucznej inteligencji.