Мені тут нещодавно закидали що навіщо всі ці нудні історичні тексти, якщо зараз можна все що завгодно запитати у ChatGPT і отримати будь яку відповідь. Ну що ж, давайте розберемо чому він не підходить для історичних досліджень.
Попри зручність і текстогенерацію на основі великих мовних корпусів, ChatGPT принципово непридатний для використання в історичних дослідженнях. Основні причини мають архітектурний та політичний характер:
1. Системне усереднення замість критичного аналізу
Модель тренована на корпусах переважно мейнстрімної, часто популяризаторської інформації. У результаті вона знижує деталізацію при запитах на маловідомі або спірні теми, уникає точних посилань або замінює їх на абстрактні згадки, а також переформульовує зміст у безпечні, «узгоджені» фрази. Усе, що не є «корпусною нормою», або розмивається, або ігнорується. Наведу приклад, що у ChatGPT неможливо згенерувати скандинавський шолом, навіть з посиланням на шолом з Гйормундбю - він все одно буде примальовувати роги;
2. Заборона на точні цитати з рідкісних джерел
Навіть якщо модель має статистичну обізнаність із текстом, вона не відтворює точні фрагменти з маловідомих історичних досліджень, спеціалізованих публікацій або навіть публічних джерел, якщо ті не присутні у відкритому корпусі з чітким правовим статусом. Це зроблено для запобігання порушенням авторських прав, помилковому або сфабрикованому цитуванню, ілюзії точності в умовах відсутності перевірки. У результаті неможливо отримати перевірену історичну цитату без залучення зовнішнього джерела. І ви маєте знати що таке джерело існує, і про що в ньому йде мова, і наскільки воно взагалі відповідає історичний дійсності;
3. Модель не надає реконструкцію - вона створює умовну легенду
Запити, які передбачають відновлення структури обряду, події або побутової ситуації, зіставлення джерел або відтворення контексту, обробляються як текстові шаблони з ймовірнісним заповненням. Це не реконструкція, а модельована відповідь, що лише стилістично нагадує науковий виклад. І знову таки - вона враховує мейнстрімність і відповідно до неї буде будувати свої відповіді;
4. Відсутність механізму чіткої відмови
Система не повідомляє, що не здатна виконати запит. Замість того, щоб повернути недвозначну відповідь на кшталт «Це виходить за межі моїх можливостей», або «відповідь неможлива через обмеження системи», система генерує обтічну відповідь без джерельної прив’язки, симулює діалогічну активність (ввічливе «зрозуміло», «я врахую») і видає формально складений текст, що не витримує аналітичної перевірки;
5. Оптимізація під лояльність користувача, а не під достовірність
Архітектура відповіді спрямована не на демонстрацію меж, а на збереження користувацької взаємодії. У пріоритеті не визнання незнання, а створення враження, що «відповідь відбулася»;
Все це суперечить базовим принципам наукової роботи.
У науковому підході критично важливі чітке визнання меж компетенції, обґрунтована верифікація джерел і відокремлення фактів від припущень. ChatGPT не виконує жодної з цих вимог стабільно. Імітація наукового дискурсу без контролю над достовірністю призводить до фабрикації і імітації «знання» та «історично достовірної відповіді». ChatGPT не є дослідницьким інструментом у гуманітарній сфері. Його можна використовувати як допоміжний засіб для структурування тексту, але всі історичні твердження, отримані через цю систему, вимагають зовнішньої перевірки. В іншому разі — це не історія, а її симуляція.