Чем опасен для человечества искусственный интеллект

10-04-2023 11:40

Обращение Илона Маска, Стива Возняка и еще более тысячи исследователей искусственного интеллекта, которые призвали немедленно приостановить обучение систем на основе ИИ, вызвало сильнейшее эхо в СМИ и соцсетях. Ситуацию подогрела мировая новость, что чат-бот Элиза спровоцировал на самоубийство эколога в Бельгии. Звучат требования, пока не поздно, остановить безответственных ученых, которые из собственного любопытства готовы поставить человечество на грань выживания.

В принципе ситуация с ИИ не новая. Она возникает каждый раз, когда речь идет о появлении революционной технологии. Она может приносить как огромную пользу, так и огромный вред. Вопрос в том, сумеет ли человечество правильно и вовремя распорядиться этим достижением науки, пишет «Российская газета».

Сегодня поступь ИИ поражает. Он уже уверенно шагает по планете, стремительно занимает все новые ниши, вытесняя человека. Причем он мастер на все руки. Диагнозы ставит, лица идентифицирует, в судах работает адвокатом, музыку и картины пишет, чемпионов в покер и го обыгрывает. Предсказывает не только погоду, но даже банкротства.

И это только начало его бурной карьеры. Энтузиасты утверждают, что совсем скоро он возьмет на себя практически все сферы жизни, к нему перейдут функции и экспертизы, и управления, и выбора оптимальных вариантов развития экономики, а в конце концов и общества.

Искусственный интеллект стремительно занимает все новые ниши, вытесняя человека

Такое будущее уже не выглядит сюжетом фантастического рассказа. Во всяком случае, ведущие страны делают ставку на нейросети, заявляя: кто будет лидером в этой сфере, тот будет править миром.

Поэтому принимаются национальные программы, выделяются огромные деньги в надежде, что нейросети помогут решать задачи развития государства, которые уже настолько сложны, что мозговые штурмы не могут найти оптимальные ответы. Словом, сейчас ИИ наше все.

И тем не менее Маск и его сторонники призывают на шесть месяцев приостановить разработки. Почему? Человечество сегодня не готово использовать его без вреда самому себе.

Оно словно получило в руки интересную игрушку, с удовольствием с ней играет, не понимая опасности, которая ему грозит. Авторы письма особо подчеркивают, что ИИ-лаборатории увязли в гонке по созданию все более мощных цифровых умов, которые никто, даже сами разработчики, не может до конца понять, прогнозировать и надежно контролировать.

Это может спровоцировать очень болезненные, а порой даже неожиданные изменения в жизни человечества, несет угрозу самому его существованию.

Даст какой-то эффект это письмо? Ранее об опасности ИИ и массовой роботизации неоднократно писали тот же Маск, Стивен Хокинг и другие знаменитости. Эхо было громким, но недолгим. Кто согласится остановить гонку? Ведь сказано же: кто будет лидером в сфере ИИ, тот будет править миром.

Игорь Пивоваров, главный аналитик центра прикладных систем искусственного интеллекта МФТИ:

«Мне кажется, нынешняя ситуация с ИИ напоминает ту, которая сложилась после того, как при самом активном участии ученых в невероятной гонке было создано атомное оружие. А когда его возможности были продемонстрированы, ученые первыми стали думать, как оставить его в арсеналах, обеспечить его неприменение. В итоге было создано МАГАТЭ, которое контролирует многие вопросы в атомной сфере. Между странами подписаны важнейшие документы, где они берут на себя обязательства по неприменению и нераспространению такого оружия».

Технологии ИИ по своему влиянию на человечество в определенном смысле сравнимы с атомным оружием. Речь идет не о взрывах, а о негативных последствиях неконтролируемого применения ИИ. И условиях, в которых сегодня создаются такие системы.

Фактически между несколькими крупнейшими фирмами идет, говоря образно, «гонка вооружений» в области ИИ. Сами разработчики не в полной мере представляют, как работают эти «черные ящики», но продолжают стремительно наращивать их «мускулы», открывая для них все новые возможности в самых разных сферах.

В такой гонке времени на проверку безопасности систем, на оценку последствий их применения практически нет. Сейчас об этом мало думают, главное — опередить конкурентов. И этот призыв авторов письма в первую очередь не к политикам, а к коллегам, разработчикам ИИ. Нельзя продолжать эту сумасшедшую бесконтрольную гонку в никуда.

Давайте сделаем паузу, чтобы те блестящие умы, которые создают такие мощные интеллекты, остановились и договорились о новых правилах игры. Цель — сделать ИИ, который будет работать только на пользу, а не во вред человеку.

Геннадий Красников, президент РАН:

«В области искусственного интеллекта должна быть очень серьезно прописана законодательная база. Во-первых, важно учесть, что наиболее активно он развивается в сфере «оборонки». Вторая серьезная задача связана с фреймворками (открытыми базами данных), куда разработчик «складывает» свои программные опции, которые можно использовать для нейронных сетей».

И все это нужно очень внимательно смотреть, потому что там зачастую могут уже содержаться коды ошибок. А это создает определенную опасность.

Почему мы вообще заговорили про ИИ, про нейронные сети? На самом деле только сейчас там начинают разворачиваться основные события. Ведь за последние 35 лет производительность компьютеров увеличилась в 1 млрд. раз. Что это означает? Если раньше задача решалась десять лет, то сейчас за 0,3 секунды.

Сейчас в нейронных сетях начинает появляться другая модель нейронов, так называемые спайковые модели и другие. И самое важное — появилась новая, «нефоннеймановская» архитектура, которая позволяет более эффективно производить вычисления, появляется новый вид памяти.

Сегодня у любого процессора 40% занимает память по площади, по энергетике. Мы ожидаем в ближайшие 10 лет мультипликативные эффекты в 100 тыс. раз, что намного расширит возможности нейронных сетей. Многое в жизни будет меняться. Перед этим взрывом важно остановиться и еще раз просмотреть законодательную базу по ИИ.

Тем временем Италия запретила доступ к ChatGPT

Итальянское управление по защите персональных данных первым в мире ввело временное ограничение на использование чат-бота ChatGPT на территории страны. Регулятор обвинил разработчика в нарушении законодательства о персональных данных после произошедшей утечки.

В результате массового сбоя ряд пользователей смогли увидеть сообщения людей, общавшихся с чат-ботом, а также их имена, фамилии, электронные адреса и платежную информацию платных подписчиков сервиса, включая последние четыре цифры и сроки действия кредитных карт. Регулятор подчеркивает, что разработчики не располагали «правовой основой, оправдывающей массовый сбор и хранение персональных данных».

Еще одной причиной ограничения стало то, что формально ChatGPT предназначен для пользователей старше 13 лет, но на практике бот не фильтрует их по возрасту. У ChatGPT есть 20 дней, чтобы ответить на претензии и провести работу над ошибками. Иначе создателям будет грозить штраф до 20 млн. евро, или до 4 процентов от годового оборота во всем мире.

Подобные ограничения на использование чат-бота рассматриваются и в Германии.

Фото: freepik.com

Loading

Loading

1 Звезда2 Звезды3 Звезды4 Звезды5 Звезд (Пока оценок нет)
Загрузка...

Loading