Эта статья - авторства Эми Бойд. Подробнее о ней вы можете узнать здесь.
На одном из докоронавирусных мероприятийMicrosoft Reactor в Лондонея посетила действительно интересный семинар Future Recoded, посвященныйэтике в искусственном интеллекте.
Я знаю, что вы подумали
"Очередной семинар по этике в ИИ, на котором рассказывают, что все вредоносно, а программисты и специалисты по анализу данных совершают уйму ошибок. И сейчас нам расскажут, как этих ошибок избежать".
Но этот семинар стал исключениемИ запомнился мне необычайно свежим подходом.
Безусловно, мы должны обсуждать и анализировать прошлые ошибки, чтобы научиться применять эти мощные технологии для всеобщего блага. Однако этот семинар открыл мне глаза на то, как проверять ИИ-проекты, идеи и даже новый бизнес на здравый смысл.
Здесь нужно отдать должное автору замечательному докладчику и писателю Майклу Робсону. Майкл, надеюсь мне удастся поделиться твоим пониманием и заставить моих читателей задуматься, как это случилось со мной.
Для начала Майкл задал несколько на первый взгляд простых вопросов. Попробуйте ответить на них сами (потом я поделюсь своими ответами).
Вы бы доверили искусственному интеллекту
-
Порекомендовать вам продукт?
-
Защитить ваши данные в Интернете?
-
Помогать вам за рулем?
-
Управлять вашей машиной?
-
Следить за вашим здоровьем?
-
Выдавать вам лекарства?
-
Выбрать няню?
На некоторые из них было легко ответить.Мы привыкли к рекомендациям нашего любимого интернет-магазина или к мониторингу здоровья через приложение. Нам нравится, когда умные часы напоминают больше двигаться.
Однако некоторые вопросы заставили меня задуматься.Например, об автомобиле, который меня везет. Я никогда такого не пробовала, но знаю, что сейчас есть машины, которые ездят сами, так что все должно быть впорядке, правда? Или о выдаче лекарств это все еще компьютер. Что, если в программе ошибка и она пропишет неправильную дозу (здесь я выражаю свое общее беспокойство ?). Но в здравоохранении часто используются технологии, так что и здесь все в порядке, верно?
Вопрос о выборе нянибыл неожиданным ?
Давайте рассмотрим этот сценарий
Скажем, компания А это служба, которая сканирует действия потенциальных нянь в социальных сетях и выставляет оценку, основанную на том, "насколько они могут быть безопасными" сучетом определенных критериев.
Этот пример основан на реальной компании и реальном сценарии использования.
Вы собеседуете множество разных людей, а эта служба проверяет социальные сети каждого кандидата.
Компания А оценивает всех кандидатов (слева) и их учетные записи в социальных сетях (справа)Она оценивает соискателя по определенным критериям, таким как "Неуважительное отношение", "Откровенный контент", "Запугивание или домогательства" и т. п., а затем выставляет оценку (напоминает мне кредитный рейтинг).
Кандидат в середине диаграммы со всеми перечисленными критериями, которые оцениваются по результатам проверки данныхНа первый взгляд, это служба, которая помогает решить, можно ли доверить конкретному человеку заботу о ребенке. Она также помогает эффективно отсеивать кандидатов, когда их много.
Большой вопрос: этичен ли такой подход?
Чтобы ответить на этот вопрос, мы должны определить для себя понятие этичности? Майкл подробно рассказал о том, как понимать это слово.
Определение в словаре:
Этика философское учение о морали, ее развитии, принципах, нормах и роли в обществе.
Возможно, лучше начать с размышлений о том, что значит быть этичным человеком. Заботиться о благополучии людей? Теория морали часто строится на какой-то одной ценности. Майкл выделяет пять ценностей.
Ценности, основанные на благополучии других (слева): отсутствие страданий, автономия и равенство. Ценности, основанные на собственном благополучии (справа): добродетель идоверие.Итак, если рассматривать этику в целом с точки зрения благополучия людей, тоэтика данных должна оценивать, как данные влияют на благополучие людей.
Новый подход FATE
FATE значит fairness (справедливость), accountability (подотчетность), transparency (прозрачность) и ethics (этичность).Миссияодной изисследовательских групп Microsoft:
изучать сложные социальные последствия искусственного интеллекта, машинного обучения, обработки и анализа данных, крупномасштабных экспериментов и возрастающего уровня автоматизации. Их цель продвигать инновационные и этичные методы вычислений, учитывая более глубокий контекст этих вопросов из социологии, истории, научных и технологических исследований.
-
Справедливость:искусственный интеллект должен повышать эффективность, не унижая человеческого достоинства, и защищать от предвзятости.
-
Подотчетность:искусственный интеллект должен иметь алгоритмическую подотчетность, чтобы люди могли устранить непреднамеренный вред.
-
Прозрачность:искусственный интеллект должен быть прозрачным и интеллектуально обеспечивать конфиденциальность.
-
Этичность:искусственный интеллект должен поддерживать человечность.
Чтобы лучше понять эти концепции, ознакомьтесь сблогами и вебинарами на веб-сайте FATE.
Когда Майкл разбил эти общие концепции на потенциальные вопросы в каждой категории, у меня появилась интересная идея для практической основы начальный набор вопросов для оценки планируемых проектов в области ИИ.
Думая о компании А, взгляните на эти вопросы, а затем спросите себя или свой коллектив, вызывает ли что-то опасения(потом я поделюсь соображениями, которые возникли у меня на семинаре).
Список вопросов по каждому из разделов "Справедливость", "Подотчетность", "Прозрачность" и "Этичность" опубликован на странице: bit.ly/fatequestionsНиже перечислены мои первоначальные мысли во время семинара, исходя из информации о компании А.
-
Будет ли алгоритм относиться к старшему поколению иначе из-за того,что его представители мало или совсем не активны всоциальных сетях? Исключит ли он их за это из числа потенциальных кандидатов?
-
Кто несет ответственность за окончательное решение,связанное с наймом подходящего человека на работу: компания А или родители?
-
На каких типах данных обучался искусственный интеллект?Есть ли предвзятость по отношению к определенным демографическим категориям, странам и т. п.? Эта информация должна быть опубликована, чтобы пользователи службы понимали ее ограничения.
-
У меня было еще несколько вопросов о том,как определяется каждая категория ивыставляется оценка.
-
Могут ли плохие кандидаты "переиграть" систему,воздействуя на свои собственные социальные сети до сканирования?
Прежде чем задать себе эти вопросы, я подумала о компании А: "Это немного необычно, но, возможно, все в порядке?" Теперь ямогу конкретнее указать причины, по которым я или другие могут беспокоиться об использовании данных или службы.
Теперь я буду использовать этот подход для оценки идей вмоих
проектах и спрашивать других их мнение по четырем критериям:
справедливость,подотчетность,прозрачность
иэтичность.
Что читаете вы?
В этой статье я хотела поделиться интересными концепциями, которые услышала на семинареМайкла: идеями, вопросами иподходами, которые помогут проверить этичность вашего проекта в области искусственного интеллекта.
Это лишь небольшая часть более масштабного процесса оценки этики данных. Поделитесь в комментариях своими любимыми ресурсамипо таким вопросам, как:
-
оценка предвзятости в наборах данных;
-
и т. д.