О том, что он причастен к сексуальным домогательствам, американский профессор права Джонатан Терли узнал из письма коллеги. Тот попросил нейросеть ChatGPT составить список правоведов, которые подвергали кого-либо сексуальным домогательствам. Имя Терли было в списке.
Причем с подробностями: упоминалось, что он позволял себе неуместные высказывания сексуального характера и пытался прикоснуться к студенту во время учебной поездки на Аляску. В качестве источника информации ChatGPT ссылался на статью в The Washington Post за март 2018 года. На самом деле такой статьи не существует. И поездки на Аляску тоже не было. То есть чат-бот предоставил ложную информацию, способную сломать человеку жизнь.
Ситуация осложняется и тем, что многие используют ChatGPT вместо поисковика, чтобы получить максимально полные ответы. Это удобно и кажется весьма эффективным. Мы в редакции MAXIM тоже пробовали это делать, однако столкнулись с тем, что при недостатке информации ChatGPT придумывает события и даже людей. Например, при подготовке статьи про первую в истории статую с обнаженной женской натурой ChatGPT очень убедительно рассказал нам, где, кем и когда она была найдена и где находится. Увы, на самом деле она так и не была обнаружена. А при создании статьи про знаменитых женщин, имевших проблемы с алкоголем, этот чат-бот внес в список несколько персон, никогда не замеченных ни в чем подобном.
Очень хочется верить, что прецедент с профессором юриспруденции направит разработчиков Chat GPT в нужное русло.