В 2023 году более тысячи ученых и разработчиков всего мира подписали открытое письмо с призывом приостановить развитие искусственного интеллекта.Билл Гейтс вовсе сравнивает искусственный интеллект с атомной бомбой.Какие из угроз надуманы, а какие реальны?Книга рассчитана на широкий круг читателей, интересующихся влиянием на общество современных информационных технологий.
Приведённый ознакомительный фрагмент книги «Темная сторона искусственного интеллекта. Почему ученые бьют тревогу?» предоставлен нашим книжным партнёром — компанией ЛитРес.
Купить и скачать полную версию книги в форматах FB2, ePub, MOBI, TXT, HTML, RTF и других
© Станислав Петровский, 2024
ISBN 978-5-0053-3300-1
Создано в интеллектуальной издательской системе Ridero
Введение
Сегодня смартфон превосходит суперкомпьютеры, которые работали тридцать лет назад. Вычислительные мощности, которые раньше требовали устройство размером с комнату и ценой в десятки миллионов, теперь помещаются в кармане и стоят тысячи. Скорость передачи данных также выросла в тысячи раз. Современный уровень скорости вычислений и передачи данных позволяет широко применять новый вид компьютерных программ и устройств на базе технологий искусственного интеллекта (ИИ).
Сочетание гениальных человеческих умов и ИИ может дать фантастические возможности — лечение ранее неизлечимых болезней, продление жизни, значительное снижение количества аварий на транспорте и производствах, больший комфорт, экологичность и общественную безопасность.
Однако, как у любой технологии, есть и обратная, темная сторона огромной силы ИИ. Современная реальность все больше похожа на сюжеты Стивена Кинга. Некоторые обыденные вещи кажутся безобидными на первый взгляд, но таят в себе смертельную опасность. Это абсолютно новый вызов, не похожий на чуму или атомную бомбу. Интуиция и разум, сформировавшиеся за миллионы лет для выживания человека в природе, теперь подводят нас. Когда речь идет о компьютере — с виду безобидной коробке с разноцветными лампочками, трудно осознать скрытые в ней угрозы. У машины нет собственных эмоций, эволюционной истории с реакцией типа «бей или беги». Зачем ей завоевывать мир или причинять вред человеку?
ИИ может и не нужно, а вот в руках алчных корпораций или злонамеренных спецслужб или хакеров ИИ вполне способен принести ущерб, сравнимый с ущербом от мировой войны — массовую безработицу, усиление разрыва между бедными и богатыми, диктатуру полицейского государства, манипуляции общественным мнением в социальных сетях, техногенные катастрофы, гонку вооружений и войны.
В 2017 году на конференции в США были приняты Азиломарские принципы ИИ. Данные принципы отражают общие подходы к созданию и использованию систем ИИ. Ведущие мировые разработчики и эксперты по ИИ, включая Илона Маска, Стивена Хокинга и Рэя Курцвейла, а также представители Google, Apple, IBM, Microsoft и другие согласились с тем, что инвестиции в ИИ должны сопровождаться исследованиями, позволяющими развивать правовые системы с учетом рисков, связанных с ИИ.
В соответствии с Азиломарскими принципами, в частности:
— системы ИИ должны быть совместимы с идеалами человеческого достоинства, его прав и свобод, многообразия культур;
— экономическое процветание, достигнутое благодаря ИИ, должно широко использоваться в интересах всего человечества;
— следует избегать гонки вооружений в разработке смертельного автономного оружия1 и так далее.
В 2020 году официальные лица Ватикана совместно с компаниями Микрософт и IBM утвердили этические принципы, по которым ИИ должен действовать прозрачно, работать надежно и беспристрастно, учитывать права человека, включая право на неприкосновенность частной жизни.
Папа Римский Франциск призвал молиться, чтобы достижения в области ИИ и робототехники служили на благо человечества и не привели «к новой форме варварства, где общее благо сброшено верховенством слова сильнейшего».
К сожалению, следует констатировать: вопреки предостережениям, многие угрозы ИИ стали реальностью.
Стартовала гонка автономных вооружений. Невиданное ранее совершенство технологий подделки голоса, видео и фотографий используется для того, чтобы опорочить или шантажировать не только политиков или звезд, но и обычных людей, включая детей. В крупных городах каждый находится под полицейским надзором камер, подключенных к системе распознавания лиц. Растут технические возможности преступников для мошенничества, краж, шантажа, угроз, а также похищения людей.
Данные факты показывают необходимость совершенствования регулирования применения новых технологий.
По словам Эльвиры Талапиной, главного научного сотрудника Института государства и права Российской академии наук, доктора юридических наук, доктора права (Франция):
«Амбициозные планы человечества по использованию цифровых технологий во всех сферах жизнедеятельности впечатляют масштабами и футуристическими зарисовками, но не стоит забывать, что все это будет происходить непосредственно в нашем обществе. В обществе со сложившейся правовой культурой, традициями и ожиданиями. Было бы несомненной ошибкой концентрироваться лишь на радужных перспективах, игнорируя риски, которые таят цифровые технологии. Перед публичным правом стоит задача осмысления технологического обновления, с тем чтобы уберечь при этом устоявшиеся правовые ценности, одну из которых представляют собой фундаментальные права человека».2
Эта книга написана, чтобы стучаться в каждую дверь. Эта книга — приглашение задуматься над социальными и правовыми проблемами в сфере ИИ. Их решение видится не только в технологиях, но и в законах. Только все вместе мы способны повлиять на принятие новых законов, ограничивающих корпорации и правительства во имя процветания и самой жизни человечества.
Приведённый ознакомительный фрагмент книги «Темная сторона искусственного интеллекта. Почему ученые бьют тревогу?» предоставлен нашим книжным партнёром — компанией ЛитРес.
Купить и скачать полную версию книги в форматах FB2, ePub, MOBI, TXT, HTML, RTF и других
1
Автономное оружие — это система, которая сама находит и поражает цель. Например, в Израиле применяется беспилотный летательный аппарат, запрограммированный атаковать радиолокационные системы противника. В ходе применения таких систем остро встает вопрос отличия автономным оружием военных от гражданских лиц и распознавания своих и чужих войск, полицейских и охранных подразделений.