Уместно ли ссылаться на чат-ботов как на источников информации?

Надлежащая практика цитирования в академической среде играет важнейшую роль в написании научных статей, поскольку цитаты используются для оценки чужих работ, аргументов, подтверждения источников и направления читателей к источникам информации.

Цитирование помогает авторам связать свою работу с предыдущими исследованиями, рассказать о ней, признать работу других и контекстуализировать результаты исследования. Хорошо процитированная статья подтверждает новизну и ценность работы и повышает ее наглядность.

Использование генеративных нейронных сетей в академической литературе создает проблемы из-за большого количества фальшивых цитат и ссылок.

В то время как мировые издательства (Science, Nature, Elsevier, Springer, IOP Publishing, Oxford University Press, PLOS, Wiley и т.д.) и академические организации (Международный комитет редакторов медицинских журналов, Американская ассоциация содействия развитию науки) обновили свою редакционную политику, указав, что инструменты искусственного интеллекта не могут быть указаны в списке авторов из-за ответственности авторов за их вклад, вопрос цитирования все еще неясен.

Путаницу усугубляет тот факт, что Американская психологическая ассоциация (APA) рекомендует цитировать текст, полученный от нейронных сетей, как результат работы алгоритма: а именно, ссылаться на автора алгоритма в списке источников.

Если вы использовали ChatGPT или другие инструменты искусственного интеллекта в своем исследовании, опишите, как вы использовали этот инструмент, в разделе «Метод» или в аналогичном разделе вашей работы (…) К сожалению, результаты «переписки» с ChatGPT невозможно воспроизвести. Сейчас в APA такие данные часто цитируются как личная переписка, но это не совсем корректно, потому что сгенерированный текст не исходит от чьей-либо личности.

– APA «How to cite ChatGPT».

Летисия Антунес Ногейра (Leticia Antunes Nogueira), руководитель проекта по искусственному интеллекту, и Ян Уве Рейн (Jan Ove Rein), библиотекарь-исследователь, оба – сотрудники NTNU опубликовали статью (ч. 1), ч. 2), в которой сосредоточились на критике концепции цитирования языковых моделей в научных публикациях.

Авторы акцентируют внимание на нескольких этических аспектах:

  1. Цитирование нейронных сетей противоречит политике авторов
    Языковая модель не может нести ответственность за утверждения, включенные в публикацию от её «лица». Цитировать нейронную сеть или организацию – это две разные сущности. Организации состоят из людей и поэтому несут ответственность за предоставляемую информацию, нейронная сеть или его разработчики нести такую ответственность не могут. Примечательно, что сама ChatGPT на вопрос «Является ли ChatGPT автором?» однозначно отвечает: нет, не является.
  2. Загрязнение информационной экосистемы
    Это связано с тем, что используемые для обучения языковых моделей данные (тексты из Интернет, тексты из Википедии, блогов, академические тексты и др.) часто не вызывают доверия. Качество моделей снижается, а такие термины, как «эхо-камера», «фильтрующий пузырь» и «постправда» стали обычным явлением. ИИ хорош лишь настолько, насколько хороши исходные данные.
  3. ИИ – не является истиной в последней инстанции
    Нейронные сети не были разработаны как инструменты для информационных целей. Заглядывая «под капот» нейронных сетей и оценивая, как они работают, мы осознаем возможности их использования и ограничения. Они основаны на шаблонах использования языка. Когда генеративная нейронная сеть отвечает на ваш запрос, она не может выдать точную последовательность символов. ИИ сделает приближение.

В качестве выводов, авторы рекомендуют устанавливать четкие нормы и руководящие принципы в отношении адекватного использования генеративного ИИ, вместо попыток регулировать их как традиционные источники информации. Такой подход способствует разумному и этичному использованию этих инновационных инструментов в академических исследованиях и написании.

Авторы считают, что цитирование генеративных нейронных сетей как источников информации может нанести ущерб.