ChatGPT как автор

Основным аргументом против авторства искусственного интеллекта (ИИ) является тот факт, что ИИ не может взять на себя ответственность за публикуемую им работу. Мне кажется, что издатели правильно сделали, что запретили указывать ИИ в качестве автора.

Указание авторства влечет за собой ответственность за работу, которая не может быть эффективно применена к языковым моделям генеративных нейронных сетей (GPT). ИИ может быть хорошим инструментом для выработки идей и написания текстов, но не источником надежной информации.

Уверен, что уважающие себя исследователи не будут использовать GPT в качестве первичного источника точно так же, как они не используют подобным образом Википедию. Однако они могут использовать его множеством других способов, включая мозговой штурм, построение предложений, анализ данных и многое другое.

Бремя ответственности за достоверность информации по-прежнему ложится на исследователя. Раскрытие информации само по себе не требует от авторов демонстрации того, как проверять достоверность результатов.

Когда дело доходит до написания статей, наше внимание должно быть сосредоточено не столько на используемых инструментах, сколько на том, чтобы авторы продемонстрировали обоснованность, правдивость и новизну исследования наряду с методами, используемыми для получения результатов.

Если инструмент ИИ может помочь создать библиографию из цитат в тексте, которые автор может проверить, действительно ли нам нужно знать, какое программное обеспечение он использовал?

Сейчас даже простые инструменты редактирования, такие как Grammarly, например, используют ИИ для обучения своих языковых моделей. А такие инструменты, как GenerativeAI, Bing, Notion (ChatGPT вскоре будет интегрирован в Microsoft Word) уже легко внедряются в поисковые системы и просить авторов заявлять об использовании ими ИИ или делать ссылки на сгенерированный текст (а результаты LLM варьируются от запроса к запросу) будет более или менее равносильно вопросу о том, как они использовали Google или Яндекс, для своих исследований.

Исследователи во многих областях уже используют множество инструментов ИИ, такие как Elicit, Semantic Scholar, и Scite. Нужно ли им вернуться назад и отозвать свои статьи, потому что в них использовались инструменты ИИ без надлежащего указания авторства?

Не очень понятен весь этот хайп с цитированием текстов, сгенерированных ИИ. Если авторы черпают свои идеи для новых исследований из нейронных сетей, анализируют их результаты, но излагают их своими словами; может быть, это нормально, потому что технически автор занимается написанием?