Abstrakcyjne rozumowanie od dawna służy za przykład odróżniający ludzkie poznanie od sztucznej inteligencji (AI). Czy systemy AI są zdolne do abstrakcyjnego myślenia? Niedawny artykuł DeepMind wydaje się dowodzić, że jest to możliwe i proponuje metodologię oceny abstrakcyjnego rozumowania w głębokich sieciach neuronowych.
Myślenie abstrakcyjne można postrzegać jako formę uogólniania wiedzy, która jest koncepcją szeroko stosowaną w systemach głębokiego uczenia się. Jednak jedną z głównych różnic między abstrakcjami a czystym generowaniem jest to, że to pierwsze opiera się na czerpaniu nowej wiedzy z pozornie niezwiązanych ze sobą danych. Jedną z paradoksalnych cech abstrakcyjnego rozumowania człowieka jest to, że jest ono zaskakująco mierzalne. W 1936 roku psycholog John Raven opublikował pierwszą wersję testu IQ, który jest szeroko stosowany jako ilościowy estymator ludzkiej inteligencji. Jednym z elementów testu IQ są słynne Progresywne Matryce Ravena (RPM), które składają się z niekompletnej macierzy 3x3. Podmiot musi zdecydować, który z proponowanych obrazów jest najwłaściwszym wyborem do uzupełnienia matrycy. Aby rozwiązać zagadkę RPM, kandydat musi rozważyć dużą liczbę możliwych odpowiedzi, dlatego w tym teście od dawna rozważano miarę edukacyjnego, płynnego, a zatem abstrakcyjnego rozumowania.
W swoich badaniach DeepMind zapożycza kilka pomysłów z sekcji RPM testu IQ, aby zmierzyć abstrakcyjne rozumowanie w agentach głębokiego uczenia się. W szczególności naukowcy zbudowali generator do tworzenia problemów macierzy RPM-line z wykorzystaniem zestawu abstrakcyjnych czynników
DeepMind wygenerował zbiór danych znany jako macierze generowane proceduralnie (PGM), który składa się z trójek [progresja, kształt, kolor]. Relacja między atrybutami w trójce stanowi abstrakcyjne wyzwanie. Na przykład, jeśli pierwszym atrybutem jest progresja, wartości pozostałych dwóch atrybutów muszą znajdować się wzdłuż wierszy lub kolumn macierzy.
Aby przejść eksperyment PGM, głęboka sieć neuronowa musiała być w stanie rozwiązać złożone wizualne pytania rozumowania, a aby to zrobić, musiała wywołać i wykryć na podstawie surowego piksela obecność abstrakcyjnych pojęć, takich jak operacje logiczne i postępy arytmetyczne, stosując je do nigdy wcześniej nieobserwowanych danych. Architektura WReN była w stanie odnieść sukces w tych zadaniach, częściowo dzięki temu, że promuje relacje między różnymi częściami zbioru danych od pierwszego poziomu sieci.
Eksperyment DeepMind przyniósł wiele interesujących wyników, które mogą pomóc nam zrozumieć, jak głęboko sieci neuronowe są abstrakcyjną wiedzą. Mimo różnorodności wyników eksperymentu było jasne, sieci neuronowe wykazują prymitywne sposoby abstrakcyjnego rozumowania.
All rights reserved 2013 - 2024; Deweloper Ads-Center.NET