На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

Business FM

65 798 подписчиков

Свежие комментарии

Совет Федерации хочет обезопасить граждан от дискриминации со стороны искусственного интеллекта

Однако среди предпринимателей, которые уже активно применяют в своей работе различные алгоритмы, нет единства мнений о необходимости какого-то госрегулирования в этой плоскости. Вопрос о цифре оказался скорее философским

Сенаторы поручили Минцифры, Минздраву и Минэкономики разработать меры, исключающие дискриминацию человека при использовании искусственного интеллекта, и утвердить «дорожную карту» по этому направлению до конца 2022 года.

Пока что в Совфеде не уточнили что именно подразумевается под дискриминацией граждан со стороны ИИ. Но очевидно, что пространства для фантазии тут предостаточно. Камеры, фиксирующие нарушения водителей в случаях, когда штрафы получали владельцы легковых машин, которые перемещались на эвакуаторах, — это дискриминация? Почему нет? Скоринговые системы банков — алгоритм решает кому дать кредит, а кому нет — дискриминация? А громкий кейс с компанией Xsolla, из которой на основании анализа алгоритмами в прошлом году уволили 150 человек?

Примеров много. Самый простой и распространенный, с которыми почти каждый сталкивается ежедневно, — соцсети с их таргетированной рекламой, напоминает президент компаний InfoWatch Наталья Касперская:

Наталья КасперскаяНаталья Касперская президент группы компаний InfoWatch «Цифровые платформы используют алгоритмы искусственного интеллекта, обучают их на больших данных пользователей и навязывают рекламу или на основании этих знаний проводят политическую пропаганду. То есть, это типичная манипуляция».

А ведь реклама — это самое безобидное в этом ключе. Человеку можно навязать не только желание что-то купить, но и повлиять на его убеждения. Основатель и президент SuperJob Алексей Захаров относится к этой проблеме спокойнее. В HR алгоритмы уже могут оценивать, насколько резюме кандидатов соответствует таким признакам, как средняя продолжительность работы на одном месте на всем протяжении карьеры, разницу между требуемым опытом вакансии и опытом из резюме, попадание желаемой зарплаты резюме в зарплатную вилку вакансии и многое другое. И все, что можно будет доверить цифре, доверят, уверен Захаров:

Алексей Захаров основатель и президент SuperJob «То, что можно легко алгоритмизировать, то поддается современному искусственному интеллекту. Соответственно, бухгалтерия уже практически исчезла и исчезнет в ближайшее время совсем. Вождение автомобиля — это тоже алгоритм. В ближайшее время, людей, которые не поддаются алгоритмам, перестанут пускать за рулем на улицы, а машины правила не нарушают и будут себе спокойно ездить. Диагнозы по инсультам: доктор наук ошибается в 50% случаев, а алгоритм уже лет десять ошибается в 1% случаев. Соответственно, какие-то такие истории тоже отдаются на откуп алгоритмам».

Надо сказать, что Алексей Захаров вообще не считает уместным использование самого термина ИИ. Его позиция в том, что алгоритм — это помощник. Он не принимает решений сам. Хотя многие готовы с этим поспорить — взять тот же скорринг.

Или что сказать человеку, которого не взяли на работу, потому что нейросети чем-то не угодила его страничка в Facebook?

А по поводу беспилотных машин — так они тоже ошибаются и этический вопрос — выпускать ли их на дороги — все еще не решен. А кто знает куда дотянутся цифровые щупальца алгоритмов в ближайшем будущем. Если сегодня машина определяет, дать кредит человеку или нет, почему завтра ей не проверить результаты ЕГЭ. И смотреть на это можно по-разному — с одной стороны алгоритмизировать этот процесс ничего не стоит. С другой — это же реально судьба человека. И разговор с экзаменатором по своей ценности не стоит на одной полке с механической оценкой того, поставил ли школьник «плюс» перед знаком бесконечность. Человеку можно объяснить, что тут априори имелось в виду, что бесконечность положительная. Машине — нет: нет знака — есть ошибка.

Еще один важный аспект — это то, что алгоритмы пишут люди. И от людей зависит то, как будет работать ИИ. Но и здесь есть обратная сторона. Если ошибку допустил ИИ — обратной связи с ним нет практически никакой, и ты ничего не докажешь. Это очень хорошо известно тем, кто хоть раз пытался исправить какую-то неточность в своих данных на госуслугах, неделями переписываясь или разговаривая с электронными помощниками, или пробовал оспорить несправедливо выписанный штраф с камеры.

 

Ссылка на первоисточник

Картина дня

наверх