Po raz pierwszy w historii sieć neuronowa odtworzyła kluczowy aspekt ludzkiej inteligencji

Nowo stworzona sieć neuronowa przewyższyła ChatGPT w szybkim składaniu nowych słów w leksykonie, co jest kluczowym aspektem ludzkiej inteligencji.
Fot. Unsplash

Fot. Unsplash

Naukowcy z New York University (NYU) stworzyli sieć neuronową posiadającą podobną do ludzkiej zdolność do dokonywania uogólnień na temat języka. System sztucznej inteligencji (AI) radzi sobie mniej więcej tak dobrze, jak ludzie, jeśli chodzi o składanie nowo poznanych słów w istniejącym słownictwie i używanie ich w nowych kontekstach, co jest kluczowym aspektem ludzkiego poznania, znanym jako tzw. systematyczne generalizowanie.

Czytaj też: Sztuczna inteligencja dokończy to, co zaczęła Najwyższa Prawda. Nowe zagrożenie na horyzoncie

Wyniki pracy opisane w czasopiśmie Nature mogą doprowadzić do powstania maszyn, które będą wchodzić w interakcje z ludźmi w bardziej naturalny sposób od nawet najlepszych dzisiaj systemach sztucznej inteligencji. Chociaż systemy oparte na dużych modelach językowych (np. ChatGPT) radzą sobie dobrze z konwersacją w wielu kontekstach, w niektórych kwestiach są kulawe. Ale działanie sieci neuronowej na poziomie ludzkim sugeruje, że nastąpił przełom w zdolności uczenia się AI.

Sieć neuronowa używa słów jak człowiek

Systematyczne generalizowanie objawia się zdolnością ludzi do łatwego używania nowo nabytych słów w nowych sytuacjach. Na przykład, gdy ktoś rozumie zdanie “kot goni psa”, bez większego zastanowienia zrozumie także stwierdzenie “pies goni kota”. W przypadku sieci neuronowych nie jest to oczywiste.

Czytaj też: Matematycy będą mieli własny “układ okresowy”. W jego stworzeniu pomoże sztuczna inteligencja

W przeciwieństwie do ludzi sieci neuronowe mają trudności z użyciem nowego słowa, dopóki nie zostaną przeszkolone na wielu przykładowych tekstach zawierających to słowo. Badacze sztucznej inteligencji spierają się przez prawie 40 lat o to, czy sieci neuronowe będą kiedykolwiek wiarygodnym modelem ludzkiego poznania, jeśli nie będą w stanie wykazać tego rodzaju systematyki.

Naukowcy z NYU przetestowali 25 osób, sprawdzając, jak dobrze wykorzystują nowo poznane słowa w różnych sytuacjach. Najpierw upewnili się, że uczestnicy będą uczyć się tych słów po raz pierwszy, testując je w pseudojęzyku składającym się z dwóch kategorii bezsensownych słów. “Prymitywne” słowa, takie jak “dax”, “wif” i “lug” reprezentowały podstawowe, konkretne działania, takie jak “przeskocz”. Bardziej abstrakcyjne słowa „funkcyjne”, takie jak “blicket”, “kiki” i “fep”, określały zasady używania i łączenia elementów pierwotnych, w wyniku czego powstawały sekwencje takie jak “skocz trzy razy” lub “przeskocz do tyłu”.

Nowa sieć neuronowa używa słowa jak człowiek

Uczestnicy zostali przeszkoleni, jak łączyć każde prymitywne słowo z kółkiem określonego koloru, tak aby czerwone kółko oznaczało “dax”, a niebieskie kółko – “lug”. Następnie pokazano uczestnikom kombinacje słów prymitywnych i funkcjonalnych wraz ze wzorami okręgów, które powstałyby po zastosowaniu funkcji do prymitywów. Na przykład wyrażenie “dax fep” zostało pokazane w trzech czerwonych kółkach, a “lug fep” w trzech niebieskich kółkach, co wskazuje, że fep oznacza abstrakcyjną zasadę trzykrotnego powtórzenia prymitywu.

Zgodnie z przewidywaniami ludzie znakomicie poradzili sobie z tym zadaniem – wybierali właściwą kombinację kolorowych kółek średnio w około 80 proc. przypadków. Jeśli rzeczywiście popełnili błędy, wynikały one ze wzoru odzwierciedlającego znane ludzkie uprzedzenia.

Następnie wyszkolono sieć neuronową do wykonania zadania podobnego do tego, które postawiono uczestnikom, programując ją tak, aby uczyła się na swoich błędach. Takie podejście pozwoliło sztucznej inteligencji uczyć się po wykonaniu każdego zadania, zamiast korzystać ze statycznego zestawu danych, co jest standardowym podejściem do uczenia sieci neuronowych. Aby sieć neuronowa przypominała człowieka, autorzy przeszkolili ją w zakresie odtwarzania wzorców błędów, które zaobserwowali w wynikach testów przeprowadzonych na ludziach. Kiedy następnie sieć neuronową testowano na nowych łamigłówkach, jej odpowiedzi odpowiadały niemal dokładnie odpowiedziom ochotników, a w niektórych przypadkach przekraczały ich wydajność.

To badanie stanowi interesujący dowód słuszności koncepcji, ale okaże się, czy tę metodę uczenia można skalować w celu uogólniania na znacznie większym zbiorze danych lub nawet do obrazów.