„Ojciec chrzestny” sztucznej inteligencji rzucił pracę w Google i ostrzega

Geoffrey Hinton, wybitny badacz sztucznej inteligencji, po odejściu z Google mówi o tym, że „źli ludzie” chcą wykorzystać sztuczną inteligencję do złych celów. Po opuszczeniu swojego stanowiska w zeszłym miesiącu postanowił rozgłaszać prawdę na temat rozwoju sztucznej inteligencji i zagrożeń z tym związanych.

Wielokrotnie nagradzany naukowiec Geoffrey Hinton zajmował stanowisko głównego badacza we wszystkich aspektach rozwoju sztucznej inteligencji w Google. Jednak, gdy zobaczył, w jakim tempie postępuje rozwój AI i jakim priorytetem, czy wręcz obsesją, jest dla megalitycznych firm technologicznych takich jak Google, Meta i Microsoft, postanowił opuścić swoje stanowisko.  

Jak sam twierdzi, widząc kierunek, jaki obrały badania nad sztuczną inteligencją, boi się, że przyniesie to więcej złego niż dobrego, jeżeli nie będą wprowadzane przerwy w celu uregulowania nowej technologii prawnie. Hinton wprost mówi o tym, że nie czuje się już komfortowo, biorąc udział w tym wyścigu między największymi korporacjami świata.  

Oppenheimer naszych czasów

Reklama

Hinton był poruszony do tego stopnia, że porównał swoją pracę do pracy Roberta Oppenheimera, ojca bomby atomowej. Różnicę stanowi tutaj według niego to, że Oppenheimer mówił o uprawianiu nauki dla samej nauki. Hinton twierdzi, że nie można zwiększać tempa pracy nad AI, nie rozumiejąc, czy będziemy w stanie ją kontrolować. Co więcej, sztuczna inteligencja może w krótkim czasie doprowadzić do ogromnych zakłóceń na rynku pracy.  

Hinton nazywany jest „ojcem chrzestnym” sztucznej inteligencji, ponieważ poświęcił dziesięciolecia na to, aby ją badać. W 2012 roku, wraz z dwoma studentami z Uniwersytetu w Toronto, udało mu się zbudować sieć neuronową. Był to program uczenia maszynowego, który nabywał umiejętność identyfikowania obiektów, jak psy, koty czy kwiaty. Stanowiła ona podstawę do powstania nowoczesnej sztucznej inteligencji, takiej jak duże modele językowe czy generatory obrazów

Prace nad sztuczną inteligencją

Pierwotnie Hinton pracował w małej firmie utworzonej dzięki prowadzonym przez niego badaniom. Następnie została przejęta przez Google, co poskutkowało utworzeniem w Toronto odłamu Google Brain, zajmującego się rozwojem sztucznej inteligencji. Następnie do zespołu dołączona została kolejna firma przejęta przez Google, DeepMind, zajmująca się uczeniem głębokim.

Firma Hintona otrzymywała niejednokrotnie oferty od innych korporacji, takich jak Microsoft, czy chiński Baidu, które nie radzą sobie z rozwojem systemów sztucznej inteligencji. Hinton w wywiadzie dla BBC News porównał ten niezwykle szybki rozwój nowej technologii do rewolucji przemysłowej czy elektryczności, a może nawet do wynalezienia koła.

Nie do końca wiadomo, kiedy Hinton dokładnie podjął decyzję o wstrzymaniu prac i odejściu z Google. Jednak parę miesięcy temu wypowiadał się na temat sztucznej inteligencji jako by była „nadnaturalnie przedwcześnie rozwiniętym dzieckiem”. Gdy tylko wiadome było, że Hinton opuści Google w porozumieniu z dyrektorem generalnym, The New York Times wysnuł przypuszczenia, że naukowiec chce dopiec swojemu staremu szefowi. Jednak Hinton odpowiedział na te spekulacje, jasno mówiąc, że musi odejść, jeżeli chce głosić prawdę związaną z nadnaturalnie szybkim rozwojem sztucznej inteligencji

Nie tak dawno w mediach głośno było też o liście otwartym czołowych światowych umysłów z prośbą o wstrzymanie na jakiś czas prac nad sztuczną inteligencją w celu zbadania zagrożeń z nią związanych. W liście skrytykowano przede wszystkim sposób, w jaki duże firmy zostały wciągnięte do wyścigu o rozwój i wdrażanie coraz potężniejszych wersji AI. Rozwój ten jest na tyle nieprzewidywalny i poza czyjąkolwiek kontrolą, że potrzebna jest przerwa, by móc go uregulować. 

Chociaż Hinton nie wypowiada się źle na temat Google, to niepokoi go sam fakt, że istnieją ludzie, którzy będą chcieli wykorzystać technologię do złych celów. Pracownicy Google byli na przykład bardzo zaniepokojeni sztuczną inteligencją firmy Bard. Twierdzili, że chatbot jest na tyle zły, że wprowadzał użytkowników specjalnie w błąd i kłamał. 

INTERIA.PL
Dowiedz się więcej na temat: Sztuczna inteligencja | Google | Amnesty International
Reklama
Reklama
Reklama
Reklama
Reklama
Strona główna INTERIA.PL
Polecamy