Strona główna » Wpisy » Hugging Face stawia wszystko na PyTorch – koniec wsparcia dla TensorFlow i Flax
angle

Hugging Face stawia wszystko na PyTorch – koniec wsparcia dla TensorFlow i Flax

Najpopularniejsza biblioteka Transformers autorstwa Hugging Face porzuca wsparcie dla TensorFlow i Flax (JAX), wchodząc w fazę uproszczenia kodu i skupienia wyłącznie na PyTorch w nadchodzącej wersji 5  (linkedin.com, github.com) Zmiana została wprowadzona w pull request #38758 scalonym 11 czerwca 2025 roku, który usunął ponad 50 030 linii związanych z TF i JAX, pozostawiając 27 drobnych modyfikacji kodu głównie związanych z deprecacjami i logowaniem. Aktualne wsparcie dla TensorFlow i Flax zostanie utrzymane w wersji 4 jako LTS do około połowy 2026 roku, po czym przestanie być rozwijane i testowane. Decyzja ta jest efektem konsolidacji bazy użytkowników wokół PyTorch, która w ostatnich latach stała się dominującą ramą w społeczności uczenia maszynowego. Zgodnie z deklaracjami zespołu, planowane jest usunięcie nawet połowy kodu biblioteki, co przełoży się na zmniejszenie złożoności i uproszczenie interfejsu API (linkedin.com).

Tło i motywacja

Transformers od początku wspierały trzy główne frameworki: PyTorch, TensorFlow oraz Flax (JAX), co przez lata było jednym z kluczowych atutów biblioteki, umożliwiając elastyczne wykorzystanie modeli w różnych środowiskach. Jednak utrzymywanie wielobackendowego wsparcia generowało znaczne obciążenie deweloperskie i nadmierne rozbudowanie kodu, co przyczyniło się do zwiększenia skomplikowania technicznego projektu. Społeczność wyraźnie skłaniała się ku PyTorch, zarówno w badaniach, jak i produkcyjnych wdrożeniach.

Szczegóły techniczne pull requestu

Pull request #38758 został scalony przez użytkownika Rocketknight1 11 czerwca 2025 roku, co zamknęło dyskusję nad przygotowaniem do deprecacji TF i JAX w wersji 5. Zmiany obejmowały rozproszone ostrzeżenia o deprecacji, usunięcie testów dedykowanych dla TensorFlow i JAX oraz poprawki w mechanizmie logowania. W wyniku merge’a nastąpiło usunięcie 50 030 linii kodu przy zaledwie 27 nowych dodaniach, co obrazuje skalę uproszczenia biblioteki.

Wpływ na użytkowników

Użytkownicy korzystający z TensorFlow lub Flax będą mogli nadal rozwijać i wdrażać modele na tych frameworkach, opierając się na wersji 4 LTS, jednak nowe funkcje i optymalizacje w wersji 5 będą dostępne wyłącznie w kontekście PyTorch. Aby zachować kompatybilność z ekosystemem JAX/TF/Keras, zespół Hugging Face pracuje nad integracją z narzędziami takimi jak MaxText, MaxDiffusion czy Keras 3, które umożliwią wykorzystanie definicji modeli transformers poza PyTorch. Praktyczne implikacje obejmują konieczność migracji istniejących skryptów treningowych oraz pipeline’ów opartych na TF lub Flax, a także aktualizację dokumentacji.

Wpływ na rynek frameworków

Deprecjacja TensorFlow i Flax w bibliotece Transformers skoncentruje wysiłki deweloperskie wyłącznie na PyTorch, co przełoży się na uproszczenie kodu i szybsze wdrażanie nowych funkcji. W rezultacie użytkownicy PyTorch mogą spodziewać się niższego progu wejścia oraz częstszych aktualizacji, podczas gdy użytkownicy TensorFlow i Flax zostaną ograniczeni do wersji 4 LTS wspieranej do połowy 2026 roku, tracąc dostęp do nowości w wersji 5. Skutkiem tych zmian może być całkowite porzucanie TensorFlow oraz JAX przez deweloperów na rzecz PyTorch co tylko zwiększy dominację tego frameworku.