О «последнем писке» высоких технологий – создании двухнанометровых микропроцессоров уже в 2024 году – рассказал на открывшемся 12 декабря в Москве Общем собрании РАН глава Академии Геннадий Красников. К сожалению, это не наше достижение, а компании Intel. Но российские ученые держат руку на пульсе, хоть и отстают от самых передовых мировых разработок – только приближаются к созданию микропроцессоров размером в 28-ми нанометров. Зато мы оказались впереди всей планеты по «приручению» искусственного интеллекта. О последних научных достижениях – в материале обозревателя «МК» Натальи Веденеевой.
Для начала надо объективно отметить, что авторитет Российской академии наук растет. Это отмечают все ее члены, с которыми мне довелось побеседовать на эту тему, и это же доказал большой список российских министров и политических деятелей, которые почтили своим присутствием Общее собрание во вторник.
Первый научный доклад по микроэлектронике зачитал, естественно, сам президент Академии. Сначала рассказал, «как у них»:
Дорожная карта ускоряется и двигается вперед. Причем идет с опережением графика: планировали (в Intel) сделать 2-нанометровую технологию к 2025 году, а готовы представить уже в 2024-м...
Затем Геннадий Яковлевич перешел к нашему производству микроэлектроники. Опустим его сложные детали, отметив лишь позитивные ожидания Красникова по поводу формирования у нас в стране необходимых технологических цепочек: по фоторезисторам, технологическому оборудованию, электронному машиностроению...
– Надо восстановить эту ситуацию, как было в Советском Союзе, – сказал он. – У меня есть предложения для всех отделений. <...> — Считаю, что работа будет развиваться, и в ближайшие 4-5 лет мы увидим качественные изменения.
Один из следующих докладов – директора Института системного программирования РАН им. В.П. Иванникова Арутюна Аветисяна был посвящен созданию доверенного искусственного интеллекта.
Термин «доверенный» используется в ряде международных и российских документов и означает прозрачность и безопасность для пользователя. В общем, это этическая тема, за которой должны, как стражи, стоять надежные технологии.
Математик Аветисян немного успокоил, сказав, что искусственный интеллект, которым многие сегодня пугают человечество, по сути, не страшен, и у России есть богатый потенциал в развитии технологий, способных укротить бесшабашный ИИ.
«Сейчас мы живем в мире слабого искусственного интеллекта, и о его субъектности вопрос не стоит», – сообщил академик присутствующим и пообещал разъяснить данный тезис во время перерыва. Этим и воспользовалась корреспондент «МК».
Если посмотреть на то, что происходит в мире (об этом, кстати, вышло недавно несколько статей ребят из Гугла), то все существующие генеративные модели все равно работают только в том сегменте и на тех данных, на которых обучались, – поясняет Арутюн Ишханович. – За этим – простая вещь: на самом деле все, что сейчас называем ИИ, — это машинное обучение. Пусть очень хитрое, но всего лишь машинное обучение.
– Ну а в будущем «чудо» в виде ИИ возможно?
– Надежда есть, но это произойдет не раньше, чем через 10 лет. Методом суперкомпьютерных ресурсов этого достичь нельзя – нужна более хитрая математика внутри. Впрочем, кто-то говорит, что до появления искусственного разума осталось 2 года...
– В чем вы видите несовершенство ИИ?
– Его, отчасти, хорошо видно, когда происходит деградация «чуда», когда машина вдруг наезжает на пешехода и почему-то вместо того, чтобы остановиться, начинает себя неадекватно вести: продолжает двигаться, но уже задним ходом. На все случаи жизни подготовить ИИ не получается...
– В чем еще вы видите опасность генеративных систем?
– В отличие от обычных информационных систем, которые проверяются, в ИИ часто бывает непонятно, что надо проверять. При этом выгода от его использования высока – продуктивность труда везде растет. Все внедряют, но без учета составляющей, что система-то до конца не доверенна. Причем дело не только в закладках...
– Что это?
– Иными словами – отравленные данные, которые могут подсунуть мошенники. Ваша машина обучится на них, и после этого вашу систему можно взламывать. Например: человек создает структуру компьютерного зрения, которая должна контролировать периметр вокруг дома, чтобы на территорию не заходили злоумышленники. Но ему дали такие данные, что человек надевает определенный (оговоренный в закладке) значок или кепку, и система его пропускает.
– Что есть у нас для того, чтобы обезопасить себя от такого?
– Мы можем гордиться, потому что мы первыми стали бить тревогу, пять лет назад создали новую специальность в вузах: «Кибербезопасность». Мы развиваемся на нормальном уровне.
...Следом выступили специалисты по самым совершенным в стране лазерным технологиям, вопросам изменения климата, трансформации мирового порядка.
Закрывая первую часть собрания, ученые, казалось, были довольны, ведь еще в начале выступления Геннадий Красников объявил о начале поддержки со стороны Минфина шестой, военной подпрограммы ФНТП, отметил, что с 2024 года будет отменена категорийность институтов РАН, которая мешала развиваться институтам 2 и 3 категорий, а также порадовал членов академии РАН, которым с января 2024 года увеличат стипендии.
Автор: Наталья Веденеева
Источник фото: ru.123rf.com