(no subject)
Aug. 1st, 2023 03:22 pmWyborcza сообщает, что ChatGPT глупеет:
Самым ярким примером является способность GPT-4 определять простые числа - в марте программа отвечала с точностью 97,6%, а через три месяца было всего лишь 2,4% правильных ответов. <...> Все большее количество материалов в Интернете создается с помощью искусственного интеллекта, а это значит, что GPT учится на текстах, в создании которых он сам принимал участие. Таким образом, обучение происходит в постоянно сужающемся кругу, что приводит к постепенному регрессу.
Самым ярким примером является способность GPT-4 определять простые числа - в марте программа отвечала с точностью 97,6%, а через три месяца было всего лишь 2,4% правильных ответов. <...> Все большее количество материалов в Интернете создается с помощью искусственного интеллекта, а это значит, что GPT учится на текстах, в создании которых он сам принимал участие. Таким образом, обучение происходит в постоянно сужающемся кругу, что приводит к постепенному регрессу.