Данная статья также доступна на следующих языках: Испанский, Французский
Американский ученый Джон Хопфилд, недавно удостоенный Нобелевской премии по физике за свои новаторские исследования в области искусственного интеллекта (ИИ), выступил с тревожным предупреждением о стремительном развитии подобных технологий. Хопфилд, заслуженный профессор Принстонского университета, выразил обеспокоенность по поводу недостатка знаний о работе современных систем искусственного интеллекта, и предупредил о потенциальной опасности, которую они представляют, если их не контролировать должным образом.
В видео, записанном в Великобритании для встречи в Университете Нью-Джерси, 91-летний исследователь сравнил достижения в области искусственного интеллекта с другими мощными технологиями, свидетелем которых он был на своем веку, такими как биологическая инженерия и ядерная физика. В обоих случаях, отметил он, было доказано, что они могут иметь как благотворные, так и разрушительные последствия. По мнению Хопфилда, главное — это понимание:
“Как физик, я очень обеспокоен тем, что нечто не поддается контролю и у меня недостаточно знаний о том, какие ограничения должны быть наложены на эту технологию”.
Современные системы искусственного интеллекта с их впечатляющими вычислительной мощностью и скоростью обучением Хопфилд называет «абсолютным чудом». Однако проблема заключается в том, что, несмотря на все свои достижения, ученые до сих пор не до конца понимают, как они работают изнутри. Этот недостаток понимания ставит под сомнение способность человечества контролировать границы ИИ и обеспечивать этичность и безопасность его использования.
Развитие ИИ, в частности нейронных сетей и глубокого обучения, переживало взрывной рост с 1980-х годов благодаря новаторской работе Хопфилда и его коллеги Джеффри Хинтона, также нобелевского лауреата. Они заложили основы современных систем искусственного интеллекта, которые оказали огромное влияние на многие области, от медицины до промышленности, но также вызвали опасения по поводу будущих последствий их использования.
Хопфилд и Хинтон, известные как «отцы» ИИ, критически оценивают стремительное развитие технологии, которую они помогли создать. Их опасения связаны с тем, что ИИ развивается быстрее, чем ученые успевают его освоить, что повышает риск того, что его развитие может выйти из-под контроля.
Хопфилд, как и Хинтон, выступает за проведение дополнительных исследований, чтобы лучше понять возможности и риски ИИ, прежде чем они превзойдут возможности человека. Поскольку компании и правительства соревнуются в гонке за овладение этой технологией, необходимость в ограничениях и регулировании становится все более насущной.
Предупреждение Хопфилда усиливает растущую глобальную обеспокоенность по поводу влияния искусственного интеллекта на общество. Хотя технология обещает привнести инновации во многие аспекты нашей жизни, она также поднимает фундаментальные вопросы о контроле, этике и ответственности при ее разработке.