Artykuł opublikowany przez Jieyu Zheng i Markusa Meistera z Caltech w Neuron stawia odważną tezę: całkowita przepustowość ludzkiego zachowania to zaledwie około 10 bitów na sekundę – mimo że nasze zmysły zbierają surowe dane rzędu gigabitów na sekundę. Autorzy proponują dwumodowy obraz mózgu („mózg zewnętrzny” vs „mózg wewnętrzny”) i wywodzą z niego konsekwencje dla BCI, projektowania technologii i samej teorii mózgu.
Kluczowy pomiar nie opiera się na tym, jak szybko poruszamy palcami, lecz na ilości informacji (Shannon) rzeczywiście wykorzystywanej do poprawnego działania. W grze „20 pytań” ~20 odpowiedzi tak/nie w kilka sekund implikuje tempo rzędu ≤10 bit/s. Podobny rząd wielkości wychodzi z wielu zadań: pisanie (ok. 120 słów/min; przy entropii angielskiego ~1 bit/znak to ~10 bit/s), mowa do zrozumiałej narracji (~160 słów/min ≈ ~13 bit/s), percepcja w blindfolded speedcubing (~11.8 bit/s podczas fazy inspekcji), czytanie i zadania motoryczne również oscylują w tym paśmie. To zbieżność rozciągnięta przez dziesięciolecia pomiarów — od klasycznych paradoksów Hicka i Fittsa po współczesne rekordy.
Autorzy definiują „liczbę przesiewu” (sifting number) jako stosunek przepływu informacji na peryferiach do przepustowości zachowania:
$$ S_i=\frac{\text{szybkość informacji sensorycznej}}{\text{przepustowość zachowania}}\approx \frac{10^9\ \text{bit/s}}{10\ \text{bit/s}} \approx 10^8. $$Pojedynczy czopkowy fotoreceptor może nieść ~270 bit/s; ~6 mln czopków w jednym oku daje ~1.6 Gb/s, podczas gdy cały „agent” nadal działa na ~10 bit/s. Już nerw wzrokowy (ok. 10^6 włókien, ~2 bity/impuls, do ~50 Hz) opuszcza siatkówkę z ~10^8 bit/s, czyli rząd wielkości mniej niż surowe wejście fotoreceptorów.
„Mózg zewnętrzny” i „mózg wewnętrzny”
Pierwszy przetwarza szybko i równolegle sygnały wysokowymiarowe (zmysły, odruchy, kora wzrokowa jako ~10 tys. hiperkolumn). Drugi przekształca je w kilka bitów sterującychaktualnym zachowaniem — seryjnie, z „psychologicznym okresem refrakcji” i wąskim gardłem uwagi, przez co „myślimy o jednej rzeczy naraz”. Ta architektura wyjaśnia, dlaczego ilościowo szybkie peryferia zderzają się z powolnym centrum podejmowania decyzji.
Ile w ogóle informacji mieści się w naszym mózgu?
Górne oszacowanie pamięci synaptycznej (≈10^14 synaps × ~5 bitów) to ~5×10^14 bitów ≈ 50 TB. „Natura” (genom, ~3×10^9 zasad) koduje ~6×10^9 bitów ≈ 0.8 GB. „Wychowanie” (percepcja w życiu) przy limicie 10 bit/s, 24/7 przez 100 lat, to ~3×10^10 bitów < 4 GB. Wniosek: pojemność magazynu przewyższa treść o ~4 rzędy wielkości, więc biologia może sobie „pozwolić” na nadmiarowość i nieefektywne reguły uczenia.
BCI bez złudzeń
Z tej perspektywy obietnice „wysokoprzepustowych” interfejsów mózg–komputer zderzają się z limitem ~10 bit/s po stronie kognicji. Autorzy przewidują, że nawet bezpośrednie odczyty elektrodomi nie przeskoczą fundamentalnego ograniczenia „mózgu wewnętrznego”; dla większości zastosowań kanał językowy bywa skuteczniejszy i bezinwazyjny. Krytykują także strategię „wpychania” do układu wzrokowego surowego wideo (gigabity/s) w implantach siatkówkowych — sensowniejsze jest przekazywanie wyników przetwarzania (tożsamości/położenia obiektów) językiem naturalnym.
Dlaczego tak wolno?
Pojedynczy neuron w korze przy niskich częstościach wyładowań i tak przenosi ~10 bit/s (około 2 bity/impuls × kilka Hz). To znaczy, że „cały człowiek” działa na przepływie porównywalnym z jednym neuronem, mimo że mamy ich ~10^11. Liczba logarytmiczna, którą trzeba „zniknąć” między 10^9 bit/s wejścia a 10 bit/s wyjścia, wynosi ~8 dekad — większa niż jakakolwiek różnica skal w klasycznych modelach „szumu neuronów” czy redundancji. Odpowiedź autorów lokuje się w serializacji zadań i w problemie trasowania mikro-zadań w „mózgu wewnętrznym”, a nie w fizycznych limitach pojedynczych komórek.
Dlaczego to ważne dla AI/produktów?
Drogi, mosty i interfejsy są zbudowane pod użytkownika działającego na ~10 bit/s. Jeśli projektujemy systemy, które mają „wciskać” w człowieka megabity na sekundę, to mijamy się z biologią. Skuteczne narzędzia będą kompresować do kilku bitów/s tego, co naprawdę istotne w danym kontekście — i robić to adaptacyjnie. Dla AI oznacza to, że „edge” może mielić gigabity, ale interfejs decyzyjny do człowieka powinien oddawać wynik w małej liczbie bitów, najlepiej w języku.
Co dalej?
Najpierw trzeba zmierzyć „ile bitów na sekundę” zachowania w tych samych zadaniach u różnych gatunków. Ten sam protokół, te same wskaźniki — od myszy po człowieka — pokażą, czy rząd wielkości ~10 bit/s jest regułą, czy wyjątkiem.
Drugie pytanie brzmi: gdzie dokładnie powstaje wąskie gardło? Rejestrujemy aktywność na drodze od wejścia zmysłowego i szybkich układów orientacyjnych (np. wzgórek górny) do obszarów planujących decyzję w korze i ją wykonujących. Jeśli wcześniejsze piętra wciąż niosą setki tysięcy bitów na sekundę, a tuż przed decyzją zostaje już kilkanaście bitów na sekundę, wiemy, gdzie ginie informacja.
Na koniec trzeba zmienić styl eksperymentów. Zamiast prostych zadań A/B używamy sytuacji, w których w krótkim czasie trzeba przesiać wiele równoległych celów: dynamiczna gra z wieloma obiektami, nawigacja w złożonym środowisku, wariant „20 pytań” z limitem czasu i kosztem zbędnych pytań. Liczymy informację na wejściu i w decyzjach w każdej sekundzie; jeśli spadek przepustowości pojawia się przy szybkim przełączaniu między mikrozadaniami, zobaczymy to w danych.
Praktyczny efekt takich badań jest prosty: będziemy wiedzieli, gdzie uciekają bity — i dzięki temu zaprojektujemy BCI oraz interfejsy, które nie „wlewają” w człowieka surowych gigabitów, tylko dostarczają skondensowany wynik, kilka najważniejszych bitów na sekundę.
Źródło: Jieyu Zheng, Markus Meister, The unbearable slowness of being: Why do we live at 10 bits/s? Neuron 113 (2025), Perspective. DOI: 10.1016/j.neuron.2024.11.008.