Прошлое, настоящее и будущее искусственного интеллекта
Многие считают нейросети особенностью нашей современности, однако их начало было положено гораздо раньше. Я уж не буду говорить про то, что идея «закладывания разума» в неодушевленные предметы затрагивалась в 17 веке, лучше перейдем к сути.
Настоящий «бум» искусственного интеллекта пришелся на 50-е годы прошлого столетия, в то время количество научных работ на эту тему росло как на «дрожжах» и ученые активно оспаривали теории друг друга. Тогда даже изобрели тест Тьюринга, суть которого заключалась в определении человеком, с кем он ведем беседу. В то время это был настоящий прорыв, поскольку машине часто удавалось обмануть испытуемых, заставляя делать выбор в пользу ИИ.
Годы шли, тема развивалась, появлялись компьютеры с большими вычислительными мощностями, а базы данных наращивали свои объемы. Новые технологии снимали барьеры, мешавшие ученым, и по итогу так сняли, что в 1997 году суперкомпьютер с искусственным интеллектом IBM Deep Blue победил Гарри Каспарова в шахматах.
Но как сегодня происходит разработка нейросети? Первоочередно кодеры пишут нейросеть, отталкиваясь от задач, которые они будут выполнять. Далее ей «скармливают» массивы данных, на основе которых ИИ учится. Тут работает принцип «чем больше данных получит нейросеть, тем умнее она будет». Несложно предположить, что разработка действительно умной и быстрой нейросети требует мощностей промышленного масштаба, и на обычном ноутбуке такое не провернуть. Здесь задействуются квантовые компьютеры, на основе которых ИИ будет работать. С использованием такого оборудования обучение происходит значительно быстрее, а квантовые кубиты позволяют нейросетям точно обрабатывать информацию и выполнять операции с колоссальными объемами данных.
Учитывая то, какой скачок произошел от теста Тьюринга до квантовых нейросетей, становится не по себе. Кто знает, что нас ждет через условные 20 лет?