Цифровая дискриминация: Когнитивный уклон в машинном обучении

YOUTUBE · 23.11.2025 05:34

Ключевые темы и таймкоды

Введение

0:10
  • Морин Маккали, адвокат разработчиков и организатор местного отделения организации "Женщины в области машинного обучения и науки о данных", обсуждает важность этики в ИИ и предвзятость в алгоритмах машинного обучения.

Примеры предвзятости в ИИ

1:14
  • Google Cloud Natural Language API: предвзятость в отношении пола, расы и сексуальной ориентации.
  • Округ Бровард, Флорида: алгоритм оценки рисков Compass, предвзятость в отношении цвета кожи и пола.

Последствия предвзятости в ИИ

7:12
  • Алгоритмы могут предсказывать будущие преступления, но могут допускать ошибки в отношении разных групп людей.
  • Предвзятость может привести к несправедливым решениям и неправильному распределению ресурсов.

Проблемы с алгоритмами оценки рисков

11:01
  • Алгоритмы оценки рисков могут ошибочно помечают чернокожих обвиняемых как будущих преступников.
  • Вероятность того, что чернокожие обвиняемые будут отнесены к категории риска будущих насильственных действий, на 77% выше, чем у белых обвиняемых.

Гендерные оттенки и предвзятость

14:27
  • Исследование показало, что ibm, face plius plius и microsoft значительно улучшили точность своих результатов для женщин с более темной кожей.
  • Необходимость внешнего аудита таких технологий для привлечения их к технической ответственности.

Образование и разнообразие

16:06
  • Образование в области технологий и этики может помочь предотвратить предвзятость и вред людям.
  • Университеты требуют от студентов курсов этики, связанных с технологиями.

Диверсификация команды и влияние на разработку программного обеспечения

19:43
  • Диверсификация команды может уменьшить предвзятость в разработке программного обеспечения.
  • Pinterest стал одной из первых технологических компаний, которые опубликовали ежегодные отчеты о разнообразии и установили ежегодные цели по найму персонала.

Этика искусственного интеллекта

21:19
  • ЕС принял этические рекомендации для искусственного интеллекта, которые должны быть законными, этичными и надежными.
  • Linux Foundation создал доверенный комитет по искусственному интеллекту для разработки принципов ИИ с открытым исходным кодом.

Инструменты для борьбы с предвзятостью

24:00
  • IBM разработала инструментарий AI Fairness 360 для исследования предвзятости, отчетности и смягчения ее, а также использования реальных алгоритмов для повышения достоверности моделей.

Модель обмена активами

27:07
  • IBM разработала модель обмена активами для упрощения использования глубокого обучения в приложениях.
  • В модели обмена активами доступно более 30 моделей для классификации звука, сегментации изображений, обработки естественного языка и других задач.

Обмен данными

30:38
  • IBM выпустила приложение для обмена данными, содержащее проверенные наборы данных с лицензированием.

Ответственность за создание справедливых систем

31:39
  • Видео начинается с призыва к смирению с тем фактом, что данные генерируются на основе поведения человека, алгоритмов и моделей, которые построены людьми.
  • Автор подчеркивает, что специалисты в области технологий несут ответственность за создание справедливых систем и что никто из тех, кто создавал проекты, о которых говорилось в видео, не хотел причинить вред.
  • Однако, несмотря на это, эти проекты продолжают причинять вред людям, и поэтому наша обязанность - остановить это.
  • Автор призывает к принятию более эффективных решений при создании этих инструментов, принятию законодательства для защиты частной жизни и свободы, а также работе над созданием более инклюзивной рабочей среды.
  • В заключение, автор подчеркивает, что у всех нас есть свою роль в борьбе за справедливость.