4 критических проблемы конфиденциальности в эпоху искусственного интеллекта
Вы больше, чем точка данных. Функция отказа здесь, чтобы помочь вам вернуть вашу конфиденциальность.
ПОСЛЕДНЯЯ ВОЛНА Развитие искусственного интеллекта заставило многих из нас переосмыслить ключевые аспекты нашей жизни. Цифровым художникам, например, теперь необходимо сосредоточиться на защите своей работы от сайтов, генерирующих изображения, а преподавателям приходится бороться с тем, что некоторые из своих учеников могут передавать их на аутсорсинг. написание эссе в ChatGPT.
Но поток ИИ также сопряжен с важными рисками для конфиденциальности, которые должен понимать каждый, даже если вы не планируете когда-либо узнавать, что думает эта технология. ты бы выглядел как водяной.
Программы для Windows, мобильные приложения, игры - ВСЁ БЕСПЛАТНО, в нашем закрытом телеграмм канале - Подписывайтесь:)
Отсутствие прозрачности
«Мы часто очень мало знаем о том, кто использует нашу личную информацию, как и для каких целей», — говорит Джессика Брандтдиректор по политике Инициативы по искусственному интеллекту и новым технологиям в Брукингский институтнекоммерческой организации в Вашингтоне, округ Колумбия, которая проводит исследования и использует их для решения широкого спектра национальных и глобальных проблем.
В широком смысле машинное обучение — процесс, благодаря которому система ИИ становится более точной — требует большого количества данных. Чем больше данных имеет система, тем точнее она становится. Платформы генеративного искусственного интеллекта, такие как чат-боты ChatGPT и Бард от Googleа также генератор изображений Dall-E получают некоторые обучающие данные с помощью метода, называемого парсингом: они прочесывают Интернет, чтобы собрать полезную общественную информацию.
Но иногда из-за человеческой ошибки или халатности личные данные, которые никогда не должны были быть общедоступными, например конфиденциальные документы компании, изображения или даже списки пользователей, могут пробиться в доступную часть Интернетагде каждый желающий может найти их с помощью поисковых операторов Google. И как только эта информация будет очищена и добавлена в набор обучающих данных ИИ, никто уже мало что сможет сделать, чтобы удалить ее.
«Люди должны иметь возможность свободно делиться фотографиями, не думая, что в конечном итоге они будут использованы для создания инструментов генеративного искусственного интеллекта или, что еще хуже, что их изображение может быть использовано для создания дипфейка», — говорит Ивана Бартолеттиглобальный директор по конфиденциальности в индийской технологической компании Випро и приглашенный научный сотрудник в области кибербезопасности и конфиденциальности в Бизнес-колледже Памплина Технологического института Вирджинии. «Сбор личных данных в Интернете подрывает контроль людей над своими данными».
Сбор данных — лишь один потенциально проблематичный источник обучающих данных для систем искусственного интеллекта. Катарина Кернерстарший научный сотрудник Международной ассоциации специалистов по конфиденциальности, говорит, что еще одним фактором является вторичное использование персональных данных. Это происходит, когда вы добровольно отказываетесь от части своей информации для определенной цели, но в конечном итоге она служит другой, на которую вы не давали согласия. Компании годами накапливали информацию о своих клиентах, включая адреса электронной почты, сведения о доставке и информацию о том, какие продукты им нравятся, но в прошлом они мало что могли сделать с этими данными. Сегодня сложные алгоритмы и платформы искусственного интеллекта предоставляют простой способ обработки этой информации, чтобы они могли больше узнать о моделях поведения людей. Это может принести вам пользу, поскольку вам будут показываться только реклама и информация, которые вам действительно интересны, но это также может ограничить доступность продуктов и повысить цены в зависимости от вашего почтового индекса. Кернер говорит, что у компаний возникает соблазн сделать это, учитывая, что некоторые из них уже используют большие объемы данных, предоставленных их собственными клиентами.
«ИИ позволяет легко извлекать ценные закономерности из доступных данных, которые могут помочь в принятии будущих решений, поэтому для предприятий очень заманчиво использовать персональные данные для машинного обучения, когда данные не собирались для этой цели», — объясняет она.
Не помогает и то, что разработчикам чрезвычайно сложно выборочно удалять вашу личную информацию из большого набора обучающих данных. Конечно, можно легко исключить такие детали, как дату рождения или номер социального страхования (пожалуйста, не предоставляйте личные данные генеративной платформе искусственного интеллекта). Но выполнение запроса на полное удаление в соответствии с Европейским общим регламентом защиты данных, например, — это совсем другая задача и, возможно, самая сложная задача, которую нужно решить, говорит Бартолетти.
(Связано: Как запретить школьным устройствам делиться данными вашей семьи)
Выборочное удаление контента затруднено даже в традиционных ИТ-системах из-за их запутанной структуры. микросервисные структурыгде каждая часть работает как независимая единица. Но Кернер говорит, что в контексте ИИ это еще сложнее, если не невозможно.
Это потому, что это не просто вопрос нажатия «ctrl + F» и удаления каждого фрагмента данных с чьим-то именем — удаление данных одного человека потребует дорогостоящей процедуры переобучения всей модели с нуля, объясняет она.
Отказаться будет все труднее и труднее
Хорошо развитая система искусственного интеллекта может обеспечить невероятный объем анализа, включая распознавание закономерностей, что помогает пользователям понять поведение людей. Но это связано не только со способностями технологий — это еще и потому, что люди склонны вести себя предсказуемо. Эта особая грань человеческой натуры позволяет системам искусственного интеллекта работать нормально, не зная многого конкретно о вас. Потому что какой смысл знать тебя, если достаточно знать таких людей, как ты?
«Мы находимся на этапе, когда требуется минимум информации — всего три-пять фрагментов соответствующих данных о человеке, которые довольно легко собрать — и они немедленно втягиваются в систему прогнозирования», — говорит Бренда Леонг, партнер в БНХ.АИюридическая фирма из Вашингтона, округ Колумбия, которая специализируется на аудите и рисках ИИ. Короче говоря: в наши дни труднее, а может быть, и невозможно оставаться вне системы.
Это оставляет нам мало свободы, поскольку даже людям, которые годами старались защитить свою конфиденциальность, модели ИИ будут принимать за них решения и рекомендации. Это может заставить их почувствовать, что все их усилия были напрасны.
«Даже если это делается для меня полезно, например, предлагая мне кредиты, которые соответствуют моему доходу, или возможности, которые меня действительно интересуют, это делает это со мной, и я действительно не могу это контролировать. путь, — продолжает Леонг.
Использование больших данных для классификации целых групп людей также не оставляет места нюансам — выбросам и исключениям, — которыми, как мы все знаем, полна жизнь. Дьявол кроется в деталях, но он также заключается и в применении обобщенных выводов к особым обстоятельствам, когда что-то может пойти совсем не так.
Использование данных в качестве оружия
Еще одна важная задача — как обеспечить справедливость при принятии алгоритмических решений, особенно когда выводы модели ИИ могут быть основаны на ошибочных, устаревших или неполных данных. На данный момент хорошо известно, что системы искусственного интеллекта могут увековечивают предубеждения своих создателей-людейиногда с ужасными последствиями для всего сообщества.
Поскольку все больше и больше компаний полагаются на алгоритмы для помогите им занять должности или определить профиль риска водителястановится более вероятным, что наши собственные данные будут использованы против наших собственных интересов. Однажды автоматические решения, рекомендации или прогнозы, которые делают эти системы, могут причинить вам вред, при этом у вас будет очень мало возможностей для обращения к ним.
(По теме: Автономное оружие может допускать серьезные ошибки на войне)
Это также проблема, когда эти предсказания или ярлыки становятся фактами в глазах алгоритма, который не может отличить истину от ложности. Для современного ИИ это все данные, будь то личные, общедоступные, фактические или полностью выдуманные.
Большая интеграция означает меньшую безопасность
Точно так же, как ваше присутствие в Интернете так же надежно, как и ваш самый слабый пароль, интеграция крупных инструментов искусственного интеллекта с другими платформами дает злоумышленникам больше возможностей для взлома при попытке получить доступ к личным данным. Не удивляйтесь, если некоторые из них не соответствует стандартам безопасности.
И это даже не считая всех компаний и государственные учреждения сбор ваших данных без вашего ведома. Подумайте о камеры наблюдения вокруг вашего района, программное обеспечение для распознавания лиц, отслеживающее вас на концертной площадкедети, бегающие по местному парку с камерами GoPro, и даже люди, пытающиеся стать вирусными в TikTok.
Чем больше людей и платформ обрабатывают ваши данные, тем больше вероятность того, что что-то пойдет не так. Больше места для ошибок означает более высокую вероятность того, что ваша информация попадет в Интернет, где ее можно будет легко включить в набор обучающих данных модели ИИ. И, как уже упоминалось выше, это очень сложно отменить.
Что вы можете сделать
Плохая новость заключается в том, что сейчас вы мало что можете с этим поделать — ни с возможными угрозами безопасности, исходящими от наборов обучающих данных ИИ, содержащих вашу информацию, ни с системами прогнозирования, которые могут помешать вам получить работу своей мечты. На данный момент лучший вариант — потребовать регулирования.
Европейский Союз уже движется вперед, приняв первый проект Закона об искусственном интеллекте, который будет регулировать, как компании и правительства могут использовать эту технологию, исходя из приемлемого уровня риска. Тем временем президент США Джо Байден использовал исполнительные указы, чтобы премиальное финансирование для развития этических и справедливых технологий искусственного интеллектано Конгресс не принял закона, защищающего конфиденциальность граждан США, когда дело касается платформ искусственного интеллекта. Сенат проводит слушания, чтобы узнать об этой технологии, но еще не приблизился к составлению федерального законопроекта.
Пока правительство работает, вы можете – и должны – выступать за регулирование конфиденциальности, включающее платформы искусственного интеллекта и защищающее пользователей от неправильного обращения с их данными. Ведите содержательные беседы с окружающими о развитии ИИ, убедитесь, что вы знаете позицию ваших представителей с точки зрения федерального регулирования конфиденциальности, и голосуйте за тех, кто заботится о ваших интересах.
Читайте больше историй PopSci+.
Программы для Windows, мобильные приложения, игры - ВСЁ БЕСПЛАТНО, в нашем закрытом телеграмм канале - Подписывайтесь:)