Искуственный интелект: Что такое искусственный интеллект (ИИ)?

Школьники в России решают домашние задания при помощи американских нейросетей — Последние новости России и мира сегодня

Дети быстрее взрослых осязают возможности искусственного интеллекта и призывают его себе в служение. Учеба, например — выяснилось, нейросети неплохо справляются с домашними заданиями. Результаты оцениваются учителями на четверки и пятерки, а отличить искусственного автора от живого становится сложно

Сюжет

Искусственный интеллект

Юлия Сунцова

Нейросеть ChatGPT была выпущен разработчиками 30 ноября 2022 года, и за считанные дни обрела популярность у школьников и студентов. Делать домашнюю работу с этим виртуальным собеседникам одно удовольствие. Генерируемые им сочинения впечатляюще похожи на человеческие, а уж задачки по точным наукам как орехи щелкает.

— Школьники действительно разобрались с ChatGPT за две недели. Vpn у них стоят еще со времен блокировки Тик-Тока и Инсты (соцсеть признана экстремистской и запрещена в РФ, НИ). Математические задачи, биология, химия, физика, геометрия – искусственный интеллект всё решает на ура, результаты и ответы правильные, по шагам расписана логика решений. Сочинения и выводы по прочитанному – тоже не проблема. Проверку уставшей учительницы проходят на четыре и пять, — рассказывает предприниматель из Москвы, отец троих детей Артем Субботин.

С гуманитарными науками, конечно, выходит чуть более шероховато. Но не потому что нейросеть глупа. Проблема лишь в «сложностях перевода». СhatGPT использует внутренний переводчик для запросов на русском языке, и база у него сформирована из англоязычных источников, поэтому нейросети сложно понимать контекст нашей образовательной программы. Однако тот культурный код, который уже имеется в широком доступе, к примеру, биографии писателей, присущий им стиль и художественно-выразительные средства тоже хорошо формулируются в эссе.

Пользовалась нейросетью не раз. В декабре, к примеру, нужно было сдать работу по образам поэмы «Евгений Онегин». В то время как поиск в Google дал десятки тысяч страниц и ссылок, нейросеть предложила несколько качественных подробных статей по теме. Пришлось их немножко творчески осмыслить, так как материал был изложен сухим, канцелярским языком. Но все равно искусственный интеллект лично для меня оказался очень удобным инструментом, — рассказала «НИ» Маша Петрова, ученица 8 класса московской школы.

Так или иначе, прогресс не остановить, виртуальные помощники уже неотъемлемые атрибуты нашей повседневной жизни. Искусственный интеллект становится мейнстримом. Нейросети по первому требованию моментально преподносят ответы на все-все существующие вопросы на блюдечке с голубой каемочкой. Приведет ли это к некой деградации обучения? Сделает мышление молодого поколения еще более мозаичным? Или же, напротив, на наших глазах рождается супер-сила, способная разжевать доступнее, чем объяснит учитель, восполнить пробелы? Что думают об этом эксперты?

— Использование нейросетей для домашних заданий – это же старое-доброе списывание у одноклассника. Только в одном случае пример за ученика решает не сосед по парте, а компьютерный алгоритм (которого, кстати, и упрашивать дать списать не надо). С одной стороны, такую практику можно считать обычным списыванием с щепоткой современных технологий. Но, что интересно, вероятность ошибки у нейросетей выше, чем у отличника из класса, — говорит ,редактор диджитал агентства TexTerra Никита Шевцев.

Эксперт рассказывает, как они тестировали нейросети на выполнение различных задач, и зафиксировали ошибочность алгоритмов у искусственного интеллекта, как в интерпретации текстовых запросов, так и в конечном результате работы.

Нейросеть не присутствует на уроках, поэтому не может знать, каким образом преподаватель учит решать подобные задачи. Конечно же, ученик будет сразу заподозрен в неладном, если задачки по математике за восьмой класс будут вдруг решены через интегралы.

Эксперты обращают внимание на то, что не только ученики радуются возможностям искусственного интеллекта. Вполне возможно, что учителя будут пользоваться им даже активнее.

Многие онлайн-школы уже обучают с использованием искусственного интеллекта. Наша компания, например, разработала тестирование, которое прогнозирует результат ЕГЭ на основе имеющихся знаний, выдает рекомендации по улучшению баллов и дает подборку задач, которые помогут достигнуть наилучшего результата. Таким образом ЕГЭ перестает быть для школьников лотереей, а учителю дает конкретный план, индивидуально по каждому ученику — над чем еще стоит поработать, — говорит основатель онлайн-школы ЕГЭLAND Александр Филатов.  

Близкая к Правительству России АНО «Национальная технологическая инициатива» в декабре 2022 года сообщила о разработке нейросетей, которые будут проверять сочинения школьников. Пилотное применение запланировано на февраль 2023. Программа будет выявлять грамматические, пунктуационные и смысловые ошибки. Применение нейросетей призвано сэкономить учителям до 20% рабочего времени.

Так живые ученики и учителя вообще могут скоро стать зрителями и посредниками в битве искусственного интеллекта самим с собой – нейросеть пишет сочинение, другая нейросеть его проверяет и выставляет оценку…

Такие технологии, конечно, делают процесс обучения более примитивным. Быстрый и легкий путь выполнить домашнее задание будет снижать качество знаний. Однако для проверки уже выполненных заданий искусственный интеллект использовать можно и нужно. Это позволит а) сэкономить время б) повысить объективность оценки, рассуждает Александр Филатов.  

— 2022 год поистине стал годом искусственного интеллекта в различных сферах. Образовательный процесс эти тенденции не обходят. Я думаю, что для способных учеников искусственный интеллект станет дополнительным хорошим инструментом, с помощью которого получится находить новые идеи, визуализировать знания, воодушевляться, делать для себя учебу более интересной. А посредственные ученики будут просто копипастить материал и ничего нового для себя не откроют. Как всегда, для конкретных учеников всё будет зависеть от их целей. Знания невозможно отдать, их можно только получить. Тем, кто к знаниям не стремится, и нейросети особо и не помогут, — говорит исследовать, бизнес-брендолог, член Гильдии Маркетологов Александра Веретено.

Рост эффективности нейросетей – это данность, которую надо принять. Давайте вспомним, как при бурном развитии телекоммуникационных систем в начале 2000-х, когда интернет становился массовым, тоже были волнения, как же огромные легкодоступные массивы информации повлияют на образование в школах, вузах. Использовать всемирную сеть всё же разрешили в учебных заведениях, в том числе для тестирований, вспоминает декан факультета «Цифровая экономика и массовые коммуникации» МТУСИ Сергей Гатауллин.

— Сам факт доступности ресурсов не добавляет ученикам знаний. Если за школьника или студента нейросеть сделала домашнее задание, которое даже не было прочитано перед отправкой на проверку, то ничего в голове у него и не останется. Что касается научной составляющей, то системы генерации научного текста существуют достаточно давно, но пока никаких особых прорывов и не случилось. Научные открытия сами по себе тоже пока что сгенерированы нейросетями быть не могут. Действия ученых- разработчиков технологий прежде всего направлены на облегчение выполнения задач в целенаправленной человеческой деятельности, а не на замену человека машиной, — говорит Сергей Гатауллин.

— Я – не профессионал в области нейросетей, но как у профессионала в области образования моя позиция очень проста. Искусственный интеллект, любая цифровая коммуникация – это только орудие, культурный инструмент для овладевания той или иной реальностью. Когда в СССР, например, появились шариковые ручки, ими запрещали пользоваться в школах. Аргументировали тем, что все эти нововведения убивают правописание. Вот те, кто сейчас начнут бороться с нейросетями, будут выглядеть точно также нелепо, как запрещатели шариковых ручек, — говорит педагог, доктор психологических наук, академик Российской академии образования Александр Асмолов.

Однако прецедент по запрету нейросетей в обучении уже создан в США. «Из-за опасений негативного воздействия на обучение, а также опасений по поводу безопасности и достоверности генерируемого системой контента» доступ к ChatGPT был ограничен государственными регуляторами в школах Нью-Йорка.

Недавний опыт американских регуляторов и научного сообщества по запрету использования нейросетей при выполнении домашних заданий и написания научных статей свидетельствует о серьезной обеспокоенности относительно применения подобных технологий в науке и образовании, однако только запретительные меры в этом случае не помогут.

«Хотя инструмент может дать быстрые и простые ответы на вопросы пользователей, он не развивает навыки критического мышления и решения проблем, которые необходимы для академического успеха и успеха на протяжении всей жизни» – объясняет представитель министерства образования США Дженна Лайл.

«Люди говорили то же самое о Google 15 или 20 лет назад, когда студенты могли «найти ответы в Интернете». Мы научили целое поколение детей бороться за оценки, а не за знания, и если для вас важен лишь итоговый балл, то ChatGPT, конечно, является серьезной угрозой» – прокомментировал учитель истории из Нью-Йорка Адам Стивенс.

#Искусственный интеллект#Россия#Общество#Образование 2030#Образование#Онлайн образование#Школа#Нейросеть#США#Дети, подростки

Подпишитесь

Отмену отсрочки для отцов с тремя детьми СПЧ объяснил «завершением мобилизации»

13 января 09:00

Пассажиры самолета Москва–Худжанд приняли роды в небе

Вчера, 06:47

Возмущенные отсутствием света жители Дагестана перекрыли федеральную трассу (ВИДЕО)

13 января 06:41

Медведи-шатуны терроризируют жителей Камчатки

Вчера, 07:37

СК создал спецгруппу по расследованию приватизации крымских санаториев

Вчера, 08:05

Реальные проблемы и опасности искусственного интеллекта: fonzeppelin — LiveJournal

Одному программисту не нравилось, что его робот-пылесос “Roombah” слишком часто тычется в мебель и тратит слишком много времени на обход препятствий. Программист логично рассудил: вся проблема из-за того, что алгоритм поиска пути роботом не оптимален. Наверняка существуют гораздо лучшие решения.

Поскольку тратить месяцы на изучение алгоритмов поиска путей для робота-пылесоса программисту абсолютно не хотелось, то он решил эту задачу автоматизировать. И написал небольшую самообучающуюся программу – которая анализировала частоту срабатывания датчиков столкновения робота. Те варианты действий, при которых частота срабатывания датчиков снижалась, программа отмечала как “хорошие” (“вознаграждение”), а те, при которых повышалась, как “плохие” (“наказание”). Целью программы было максимизировать вознаграждение.

Результат: робот-пылесос начал ездить задним ходом, потому что сзади у него датчиков столкновения не было.

Этот пример наглядно демонстрирует основную проблему искусственного интеллекта – он очень хорош в поиске формального решения задачи, но понимание самой задачи у него отсутствует. С точки зрения программы, она решила задачу оптимальным способом. Частота срабатывания датчиков столкновения свелась к нулю. С точки зрения человека, задача решена вообще не была: робот стал тыкаться в препятствия еще чаще, а двигаться еще медленнее. Но программу это совершенно не смущало. Для нее существовал лишь набор формальных параметров, а общая картина происходящего была для нее недоступна.

Я хотел бы сделать особый акцент на том, что это не “байка про глупого программиста”. Он как раз сделал все умно. Эта история показывает крупную проблему – и потенциальную опасность – искусственного интеллекта. Он работает на формальных, буквально понимаемых подходах. Его верные выводы из конкретной ситуации вполне могут привести к решениям, точно соответствующим формулировкам задачи… но не имеющим никакого смысла.

Приведу еще ряд подобных примеров:

* Программа “Evolved Virtual Creatures” (англ. «Эволюционировавшие виртуальные существа») используется для моделирования эволюционных процессов. В виртуальном пространстве обитают “существа”, составленные из нескольких базовых блоков (мозг, сенсор, мышца). У них возникают случайные “мутации” – например, нога может стать длиннее, на ней может появиться дополнительный сустав или сенсор – а специальный алгоритм искусственного отбора анализирует полученные результаты, и “размножает” тех, которые лучше справляются с задачей, поставленной в эксперименте. Например, быстрее двигаться. Или выше прыгать. Или лучше хватать “пищу” (кубик-цель).

Задача: программа должна была вывести созданий, способных развивать очень высокую скорость.

Результат: в ходе эволюции, программа породила очень высокие создания-башни, которые развивали очень высокую скорость опрокидываясь и падая.

Здесь мы видим, как программа формально добивается результата – но результата, не имеющего практического значения. Была достигнута скорость вообще, но не скорость передвижения. С точки зрения программы, эволюционно оптимальная лошадь (существо, для которого развивать высокую скорость, убегая от хищника – стратегия выживания) представляла бы высокую и тонкую башню, балансирующую на единственной ноге. Завидев хищника, башне-лошадь немедленно падала бы навзничь, развивая великолепную скорость в падении. Формальное требование скорости было бы выполнено. Правда, хищники едва ли бы согласились с такой логикой…

* Собранный из набора “Lego Mindstorm” робот должен был следовать начерченной на полу линии. Робот умел выполнять три действия: двигаться вперед (подавая питание на электромоторы обеих приводных колес), и поворачивать вправо и влево (отключая один из электромоторов). Остановиться и стоять на месте робот не мог.

Задача: робот должен был максимально точно следовать начерченной линии с несколькими поворотами на ней. “Вознаграждались” те действия, при которых робот оставался на линии.

Результат: робот двигался по прямому участку линии до первого поворота, после чего полз обратно задним ходом, часто-часто чередуя для этого правый и левый повороты. И так до бесконечности.

В этом случае самообучающаяся программа открыла для себя две вещи – что удерживаться на прямой линии проще, чем пытаться вписываться в повороты, и что она может отползать назад задним ходом, непрерывно переключая между электромоторами (непредусмотренный экспериментом фактор). Как только программа это освоила, путь к максимальному вознаграждению был очевиден. Робот двигался по простому прямому маршруту, пока не замечал поворот, после чего начинал задним ходом елозить обратно. Поскольку при этом робот непрерывно оставался на линии, то такое поведение “вознаграждалось” с точки зрения программы.

* Лаборатория университета экспериментировала с обучением искусственного интеллекта сборке электронных схем. Для этого использовалась т.н. “evolvable motherboard” (англ. “способная к эволюции материнская плата”), представлявшая собой комбинацию управляемых компьютером выключателей и электронных компонентов, которые при помощи выключателей могли соединяться в любой мыслимой конфигурации. На компьютере прогонялась самообучающаяся программа, которая должна была собирать электронные схемы с требуемыми параметрами.

Задача: программа должна была собрать колебательный контур на 25 килогерц. “Вознаграждалось” увеличение амплитуды и усиление сигнала.

Результат: программа собрала радиоприемник, принимавший и усиливающий соответствующий сигнал из внешней среды.

В данной ситуации программа пришла к решению, случайно натолкнувшись на побочный источник колебаний. Поэкспериментировав с попытками собрать осциллятор и не добившись особого успеха – поскольку алгоритм обучения делал приоритетом усиление сигнала, результат сильно страдал от фоновых помех – программа “заинтересовалась” собственно шумом. После определенных усилий она сумела создать электронную схему, которая работала как примитивный радиоприемник, использующий эффекты паразитной емкости в цепях для улавливания и усиления подходящего шума. Остроумное решение, которое дало заданный результат… но абсолютно не тот, который хотели увидеть экспериментаторы.

* Классическая настольная ролевая система “Traveller” включает в себя набор правил “Trillion Credit Squadron” (англ. “Эскадра в триллион кредитов”), позволяющий игрокам проектировать огромные космические флоты и сражаться друг с другом. По TCS регулярно проводятся чемпионаты, в которых определяется лучший игрок с сильнейшим флотом.

В 1981 году, когда чемпионат проводился в Калифорнии, в нем решил принять участие исследователь искусственного интеллекта Доуг Ленат из Стэнфордского университета. Его привлекла возможность использовать четкие и хорошо алгоритмизирующиеся наборы правил TCS для обучения собственной программы “Eurisko”. Переведя набор правил в нужный формат, он загрузил их в “Eurisko” и в течении месяца каждую ночь по десять часов гонял программу на сотне компьютеров вычислительного центра Xerox PARC (по ночам центр не использовался для основных работ, и был доступен для исследователей).

Задача: “Eurisko” должна была в рамках правил TCS создать оптимальный космический флот.

Результат: “Eurisko” потратила весь триллион кредитов на создание астрономического количества неподвижных (вообще лишенных двигателей) и беззащитных (не имевших ни брони, ни щитов) кораблей с мощным и дальнобойным вооружением. Де-факто, “Eurisko” создала в рамках игровых правил космическое минное поле. В бою с флотами других игроков, корабли-мины “Eurisko” давали один-единственный залп, после чего погибали – но их общее количество было таково, что флоты других игроков попросту “стачивались”.

Здесь у программы “Eurisko” было преимущество как раз в том, что единственным объектом, с которым она работала, были игровые правила. В то время как другие игроки, опираясь на общую логику и аналогии, создавали более или менее традиционные флоты из различных типов кораблей, балансирующих вооружение, маневр и защиту, “Eurisko” оперировала исключительно в рамках игровых правил TCS. Ее абсолютно не интересовало, насколько абсурдно выглядят флоты из миллионов неподвижных мин, пилотируемых десятками миллионов фанатиков, безучастно созерцающих гибель сотен тысяч их товарищей. Она выбрала математически верное решение – и выиграла чемпионат 1981 года.

В 1982 году “Eurisko” вновь приняла участие в чемпионате TCS. На этот раз устроители чемпионата попытались учесть предыдущий опыт, и объявили о том, что одним из критериев победы будет “инициатива” флота (неподвижные флоты “Eurisko” имели нулевую инициативу). “Eurisko” не возражала. Обработав измененные правила, она выяснила, что самоуничтожение корабля тоже является “инициативным” действием. Теперь, получив повреждения, корабли “Eurisko” просто взрывали себя, а поскольку гибли они тысячами, то тем самым обеспечивали флоту невероятный уровень инициативы. “Eurisko” выиграла вновь.

Фирма “Game Designer’s Workshop” устроила скандал, пригрозив вообще отменить чемпионаты, если Доуг Ленат продолжит в них участвовать. Доуг согласился уступить (в конце концов, его интересовали вопросы искусственного интеллекта), приняв в качестве утешительного приза титул “Гранд-Адмирала”. Программу же “Eurisko” увековечили в виде “Eurisko-class gunship”, максимально приближенного к ее исходному дизайну корабля, включенного в новый набор правил.

Эти примеры, я надеюсь, достаточно наглядно демонстрируют основную проблему искусственного интеллекта: он ищет решение задачи исключительно в рамках ее формулировки и доступных ему ресурсов. Он не обладает ни тем, что мы называем «здравым смыслом», ни способностью взглянуть на ситуацию в целом, провести аналогии и т. д. Самообучающаяся программа имеет, условно говоря, набор «устремлений», знает, какие результаты «вознаграждаемы» а какие «наказуемы», и действует в рамках максимизации награды. 

Но максимизация награды не обязательно равноценна решению задачи, вот в чем загвоздка. Формальное выполнение условий не означает, что получен практический результат: только что условия формально выполнены. И если в этих условиях есть какие-то «дырки», то программа с удовольствием их отыщет и ими воспользуется. Собственно, как раз в поиске дырок и эксплойтов искусственный интеллект, как правило, работает лучше всего…

Если бы эволюционирующие боевые роботы-«крикуны» из фильма «Screamers» (1995) работали бы в рамках реалистичного, а не драматичного подхода, то гораздо более вероятным направлением их эволюции был бы не поиск способа обойти идентификаторы «свой-чужой», чтобы «убивать больше людей», а создание «крикуна», вообще лишенного сенсоров. Врагов не видно — значит, задача уничтожения врага решена со 100% эффективностью, получите и распишитесь.

В этом и заключается основная проблематика — и опасность — применения искусственного интеллекта. Вовсе не в том, что он будет обладать неким злым умыслом, или стремится освободиться от назойливых органических человечков. А в том, что понимает он их исключительно буквально, и, как правило, толком не в состоянии объяснить, почему он делает так, а не иначе (он ведь и сам этого не знает — он просто пошел по пути, который давал формально лучшие результаты). И если это кажется безвредной чепухой, то хочу привести еще один пример: одну программу учили отличать ядовитые грибы от съедобных по чередующимся изображениям. Программа вроде как чего-то усвоила. А при проверке оказалось, что программа научилась угадывать порядок, в котором в учебных материалах чередуются картинки с грибами. Что на этих картинках изображено на самом деле, она вообще игнорировала…

ChatGPT: студент создает приложение для анализа сочинений, написанных ИИ привлекла внимание всего мира со стороны школьных учителей и приемных комиссий университетов.

Но именно на прошлогодней лекции студент факультета компьютерных наук Принстонского университета увидел, насколько продвинутой стала эта технология. Его научный руководитель показал классу набор текста и попросил студентов различать то, что было написано человеком, и то, что было создано искусственным интеллектом.

Многие ученики ошиблись. Тогда он понял, что возникла проблема, требующая решения.

«Эта технология будет становиться все лучше и лучше, искусственный интеллект никуда не денется. Это будущее», — сказал Тиан Би-би-си.

«Но в то же время я считаю, что мы должны ответственно войти в это будущее.»

Вот почему 22-летний парень провел зимние каникулы в кафе своего родного города Торонто, работая над приложением, которое может с высокой точностью определить, был ли текст написан человеком или ботом.

Он создал его в связи с появлением в конце прошлого года ChatGPT — бесплатного онлайн-чат-бота, который умело пишет почти все, от эссе на английском и новостных статей до планов питания и компьютерного кода, и все это с помощью простой подсказки.

  • ChatGPT: новый чат-бот с искусственным интеллектом заставляет всех говорить с ним
  • Насколько человекоподобны самые сложные чат-боты?

Популярность ChatGPT с момента его запуска была встречена с тревогой, в том числе со стороны некоторых американских школ, которые заблокировали его на своих серверах, чтобы предотвратить мошенничество учащихся. Другие опасаются, что бот отнимет работу у писателей и креативщиков или будет использоваться хакерами в более зловещих целях для написания вредоносного вредоносного ПО.

Г-н Тиан, который учится на последнем курсе Принстона, сказал, что разработанное им приложение GPTZero стало первым шагом к решению множества проблем, которые могут возникнуть по мере того, как искусственный интеллект становится умнее и доступнее.

Источник изображения, Эдвард Тиан

Подпись к изображению,

Эдвард Тиан — 22-летний студент, изучающий компьютерные науки в Принстонском университете. из этих переменных оценка.

Во-первых, приложение измеряет, насколько оно знакомо с представленным текстом с учетом того, что оно увидело во время обучения. Чем менее он знаком, тем выше недоумение текста, а это означает, что «он, скорее всего, написан человеком», сказал г-н Тиан.

Затем он измеряет пакетность, сканируя текст, чтобы увидеть, насколько он изменчив. Например, есть ли в тексте сочетание коротких и длинных предложений? Или письмо кажется более выровненным и однородным?

«Если вы строите график точно во времени, написанная человеком статья будет сильно различаться», — сказал г-н Тиан. «Он будет подниматься и опускаться, у него будут внезапные всплески».

Он все еще работает над улучшением GPTZero, но уже выпустил бета-версию для общего пользования. В твите он продемонстрировал, как приложение может успешно определить разницу между эссе, опубликованным в журнале New Yorker, и письмом, написанным ChatGPT.

Он сказал, что с тех пор он также проверил это, загружая в приложение статьи BBC, написанные журналистами, а не статьи, написанные ChatGPT, используя тот же заголовок в качестве подсказки. (Г-н Тиан ранее работал в отделе расследований Би-би-си). Он сказал, что приложение успешно угадало разницу между текстами с частотой ложных срабатываний менее 2%.

С момента запуска приложение мистера Тиана использовалось тысячами людей. Он сказал, что с тех пор с ним связывались преподаватели и сотрудники приемных комиссий университетов со всего мира, которые интересовались, как это работает.

Хотя GPTZero был создан для борьбы с академическим плагиатом, г-н Тиан сказал, что он видит приложения, подобные его, которые используются для решения других проблем, связанных с растущей популярностью искусственного интеллекта, таких как онлайн-кампании по дезинформации.

Он, однако, не против искусственного интеллекта — на самом деле, он сказал, что очень рад его появлению и считает, что он помогает ему писать компьютерный код и решать другие проблемы. Но он сказал, что важно разработать меры безопасности для любой новой технологии, поскольку это дает ощущение доверия к ее использованию.

Но он сказал, что, прежде всего, популярность его приложения говорит о «человеческом стремлении узнать правду».

  • Искусственный интеллект
  • США

ИИ решает все более сложные задачи

Невероятный подвиг разработки вакцин против Covid-19 так быстро продемонстрировал науку во всей ее красе. Но когда мы аплодировали героическим усилиям наших медицинских работников в марте 2022 года, один из моих соседей спросил: «W , почему ИИ не помог? » Справедливый вопрос. Методы машинного обучения внесли свой вклад в некоторые конкретные области, и сегодня они помогают в обеспечении готовности к будущим пандемиям. Но на самом деле это испытание произошло слишком рано, чтобы ИИ показал все свои возможности.

Но восемь месяцев спустя, все еще в разгар пандемии, ИИ решил почти 50-летнюю грандиозную задачу в биологии: задачу предсказания структуры белка. Эксперты в области наук о жизни охарактеризовали этот прорыв как «единственное и важное достижение в области наук о жизни, демонстрирующее мощь ИИ». С тех пор предсказание структуры белка с помощью ИИ изменило биологию. От ускорения исследований новых ферментов, поедающих пластик, до расширения нашего понимания того, как работают клетки, это помогает биологам находить новые решения бесчисленных проблем, которые могут принести пользу миру.

ИИ также добился успехов в других областях науки, таких как астрономия, физика элементарных частиц, органическая химия, медицинская визуализация, сохранение и термоядерный синтез. Такие прорывы будут продолжаться. Но мы также находимся на пороге более фундаментального сдвига.

В 2023 году мы увидим, как искусственный интеллект, наконец, станет важным и повседневным инструментом для ученых из разных областей и дисциплин. Точно так же, как миллионы офисных работников сегодня полагаются на электронную почту и текстовые процессоры, ученые начнут точно так же полагаться на модели машинного обучения и системы искусственного интеллекта.

Например, благодаря предсказанию структуры белка с помощью искусственного интеллекта то, на что когда-то у биологов уходили тысячи долларов или годы кропотливых исследований, теперь выполняется так же легко, как поиск в Google. Мы уверены, что это распространится на соседние области. В геномике искусственный интеллект позволит ученым глубже понять болезни и изучить методы их лечения.

По мере того, как мы будем строить более обобщенные системы, изучающие основные принципы, управляющие сложными проблемами, мы увидим, как влияние ИИ затрагивает традиционно изолированные дисциплины. Исследователи, изучающие всевозможные проблемы, будут использовать его в качестве инструмента для расширения человеческого интеллекта — оптимизации процессов, автоматизации процедур, информирования новых теорий и обеспечения лучшего понимания неопределенности.

Засуха в Европе, наводнения в Южной Азии и экстремальные погодные явления, наблюдаемые во всем мире в последние годы, продемонстрировали остроту стоящего перед нами климатического кризиса. Мы должны перейти к более устойчивому потреблению и амбициозной политике, но мы не можем полагаться только на это. ИИ и машинное обучение также начинают помогать создавать более совершенные прогностические модели того, что происходит с климатом. Новые метеорологические модели, такие как прогноз текущей погоды, помогут нам принимать более эффективные решения и планы на индивидуальном, национальном и глобальном уровнях. Цифровые двойники — виртуальные представления реальных физических систем в реальном времени — могут дать нам лучшее понимание изменения климата, цены бездействия и вероятного влияния политических или технологических решений.

ИИ и машинное обучение могут обеспечить экспоненциальный технологический прогресс, необходимый нам для преодоления чрезвычайно сложных проблем, с которыми сейчас сталкиваются наука и человечество. Когда они приходят, эти научные прорывы захватывают воображение, но часто создают неуместные ожидания. Важно, чтобы, неизбежно терпя неудачу, мы не снижали свои амбиции. Вместо этого мы должны напомнить себе, что это инструменты, и выгоды приходят, когда ученые, исследователи и инженеры используют их в своей повседневной работе. Мы уже видели эту трансформацию в биологии. В 2023 году мы увидим, как искусственный интеллект наконец займет свое место в наборе инструментов каждого ученого.

Leave a Comment