Fakty Press

Wiadomości z kraju i ze świata

ChatGPT, OpenAI, ELIZA, test Turinga

ChatGPT pokonany przez program komputerowy z lat 60. w badaniu Turinga

ELIZA przewyższa współczesną sztuczną inteligencję pod tym względem, co jeden z badaczy określił jako „żenujące” dla OpenAI

Wczesny program komputerowy zbudowany w latach 60. XX wieku pokonał wirusowego chatbota AI ChatGPT w teście Turinga, zaprojektowanym w celu odróżnienia człowieka od sztucznej inteligencji.

Naukowcy z Uniwersytetu Kalifornijskiego w San Diego w USA przetestowali wczesny chatbot ELIZA, stworzony w połowie lat 60. XX wieku przez naukowca z MIT Josepha Weizenbauma, w porównaniu z nowoczesnymi wersjami tej technologii.

Odkryli, że ELIZA przewyższa sztuczną inteligencję GPT-3.5 OpenAI, która obsługuje bezpłatną wersję ChatGPT firmy .

Test Turinga stanowi punkt odniesienia przy określaniu zdolności maszyny do naśladowania ludzkiej rozmowy od czasu jego opracowania w 1950 roku przez brytyjskiego informatyka Alana Turinga.

W najnowszym badaniu 652 uczestników musiało ocenić, czy rozmawiają przez Internet z innym człowiekiem, czy z chatbotem AI.

Chatbot GPT-4 OpenAI, który jest potężniejszy niż darmowa wersja tej technologii, był w stanie oszukiwać uczestników badania częściej niż ELIZA, a wskaźnik sukcesu wyniósł 41%.

ELIZA potrafiła podawać się za człowieka w 27% przypadków, podczas gdy wskaźnik sukcesu GPT-3.5 wyniósł zaledwie 14%.

Ekspert ds. sztucznej inteligencji, Gary Marcus, opisał sukces ELIZA jako „zawstydzający” dla nowoczesnych firm technologicznych pracujących nad chatbotami AI.

„Myślę, że fakt, że GPT-3.5 przegrywa z ELIZĄ, nie jest aż tak zaskakujący, gdy czyta się tę gazetę” – napisał na X (dawniej Twitter) Ethan Mollick, profesor sztucznej inteligencji w Wharton School w USA.

„OpenAI uznało ryzyko podszywania się za poważne zagrożenie i wdrożyło RLHF [wzmacnianie uczenia się na podstawie informacji zwrotnych od ludzi], aby zapewnić, że ChatGPT nie będzie udawać człowieka”.

Jednym z powodów, dla których uczestnicy pomylili ELIZĘ z człowiekiem, odnotowanym w badaniu, było to, że „szkoda” być obecnym modelem sztucznej inteligencji. W związku z czym „bardziej prawdopodobne było, że był to człowiek celowo odmawiający współpracy”.

Arvind Narayanan, profesor informatyki w Princeton, który nie był zaangażowany w badania, powiedział: „Jak zawsze testowanie zachowań nie mówi nam o możliwościach. ChatGPT jest dopracowany tak, aby miał formalny ton, a nie wyrażał opinii itp., co czyni go mniej ludzkim.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *