В преддверии конференции SNF 2021 Nostos американский специалист по этике технологий призывает принять меры по смягчению вреда технологий искусственного интеллекта

‘Who’s to pay for the societal costs?’

Американские регуляторы безопасности на прошлой неделе открыли официальный датчик безопасности в автопилоте Tesla Inc после серии аварий с участием моделей Tesla и автомобилей скорой помощи. Несколько дней спустя генеральный директор Tesla Элон Маск заявил, что его компания работает над роботом-гуманоидом, опираясь на программное обеспечение Autopilot. [AP]

Венделл Уоллах неловко прагматичен в отношении потенциально негативных последствий искусственного интеллекта. «Дело не в том, что у нас нет способов улучшить эти эффекты, а в том, что простого желания сделать это нет», – говорит он во время видеозвонка по скайпу из своего дома в Коннектикуте.

Уоллах, преподаватель Междисциплинарного центра биоэтики Йельского университета и старший советник Центра Гастингса, активно боролся с этическими и управленческими проблемами, создаваемыми ИИ и другими появляющимися технологиями.

Выступая перед конференцией Ностоса Фонда Ставроса Ниархоса 2021 года: человечество и искусственный интеллект в этот четверг и пятницу, Валлах предупреждает, что технические и политические элиты не смогли принять эффективные меры для сдерживания надвигающейся опасности ИИ, включая усиление предубеждений и несправедливости.

Он говорит, что далеко не следит за инновациями, исходящими от технологических лабораторий в Силиконовой долине, «мы позволяем тем, кто инвестирует в определенные технологии, пожинать плоды без какой-либо ответственности за негативные последствия или нежелательное воздействие этих технологий на общество.»

Тем не менее, несмотря на свое самопонимание как академика «чашка наполовину полна», Уэнделл с оптимизмом смотрит на то, что неустойчивая головоломка, в которой мы находимся, может вызвать экзистенциальное переосмысление нашей траектории как людей.

«Мы построили мир, который, если мы не будем действовать поспешно, лишится будущего, сравнимого с нашим, независимо от того, сколько денег мы можем получить нашим внукам», – говорит он.

Насколько вы понимаете, хорошие и плохие дебаты об ИИ устарели. Μost согласится, что ИИ хороший и плохой. Каковы ваши основные опасения относительно ИИ и где вы видите больше всего обещаний?

Что ж, моя главная проблема заключается в том, что у нас нет эффективного управления для смягчения потенциально негативных последствий ИИ, и у нас действительно нет эффективной инженерной повестки дня, ориентированной на это. Конечно, говорят об ИИ для хорошего и совместимого с человеком ИИ, но я думаю, что все это относительно слабые инструменты по сравнению с некоторыми негативными последствиями революции, в которой мы находимся. Дело не в том, что у нас нет способов улучшить эти эффекты, а в том, что простого желания сделать это нет. Между тем, желание ускорить развитие новых технологий обогащает многих людей в финансовом отношении, особенно тех, кто имеет акции или значительную долю в техническом бизнесе. ИИ вооружается и становится центральным в новых формах защиты, будь то кибербезопасность или более кинетическая война в форме смертоносного автономного оружия. Теперь это не означает, что существуют сотни способов, которыми ИИ может улучшить жизнь некоторых людей. ИИ, безусловно, является движущей силой, ускорителем и усилителем исследований в области биотехнологий для решения проблем здравоохранения и для более широкого научного открытия. Это помогает нам, в некотором смысле, продумывать последствия изменения климата и способствует разработке вакцин. Тем не менее, я думаю, что общая траектория на данный момент не в порядке, и мы не принимаем эффективных мер для исправления этой траектории.

ИИ имеет тенденцию концентрировать больше власти и больше контроля там, где он уже существует, таких как государственные органы, военные, полицейские или технические гиганты. Это правильно?

Да, это правильно. И это не просто ИИ. ИИ занимает центральное место в цифровой экономике; и это будущее цифровой экономики. Цифровая экономика сделала многих из нас богаче во время пандемии, в то время как сотни миллионов потеряли средства к существованию – если не их жизни. Поэтому я думаю, что мы на самом деле усугубляем структурное неравенство через цифровую экономику, и это будет продолжаться, потому что ИИ и другие появляющиеся технологии обогащают некоторых из нас иногда за счет других. Я считаю, что, конечно, есть много способов, которыми искусственный интеллект улучшает средства к существованию людей и улучшает некоторые формы неравенства, но общий эффект не является положительным. Это не только в этих конкретных областях усиления предубеждений или несправедливости. Это также так, как это меняет состояние человека. Это меняет состояние человека в нескольких отношениях. Во-первых, он предоставляет все более мощные инструменты для манипулирования поведением человека, играя на бессознательных когнитивных способностях людей. Все технологические компании изучают это очень глубоко. Это дает дополнительную власть помимо тех, которые традиционно использовались в рекламных и пропагандистских целях. Это также часть повествования, которое, я думаю, ослабляет человеческое посредничество не только в манипулировании поведением, но и в предположении, что искусственный интеллект является и будет быстро развиваться, чтобы иметь лучшие возможности принятия решений, чем люди. Это дает возможность повествованию о том, что мы должны предоставлять искусственным объектам, таким как смертоносное автономное оружие, возможность принимать решения, которые будут способом отмены или смягчения фактической ответственности тех, кто развертывает системы искусственного интеллекта. Это также снова ослабит человеческое агентство, предполагая, что люди не будут такими же хорошими лицами, как ИИ. Общая траектория, будь то правда или нет, основана на этом повествовании о том, что ИИ может быть более умным, чем люди во всех отношениях. Мы еще не там. Я среди скептиков относительно того, осознаем ли мы это на самом деле.

Было высказано предположение, что машинный интеллект будет последним изобретением, которое людям когда-либо придется делать, потому что, как только мы достигнем этой точки, машины, по крайней мере теоретически, будут лучше, чем мы, придумывая новые изобретения.

Если это так, о чем я хотел бы спорить, я думаю, что интеллект – это нечто гораздо большее, чем собственность человека или машины. Это также поднимает этот глубокий философский вопрос, который мы слышим по-разному: какова функция людей, для чего нужны люди, какова будет наша роль в будущем, или мы на самом деле пишем наш собственный смертный приговор?

Вы говорите, что ИИ усиливает предубеждения. Могут ли больше данных решить эту проблему?

Лучшие данные потенциально могут решить проблему. Предвзятость во многом является результатом того факта, что мы опираемся на существующие данные, в которые встроены традиционные формы смещения. И, следовательно, как гласит старая поговорка, «мусор в мусор».«Таким образом, если ИИ получает выходные данные на основе несбалансированных или искаженных данных, то это даст искаженный вывод. Человеческие эксперты, работающие с результатами алгоритма ИИ, могут научиться быть относительно чувствительными к информации и предубеждениям, которые могут быть присущи данным. Эта чувствительность может быть улучшена с помощью анализа данных, рассматривающего входные данные, но есть и другие проблемы: данные могут быть искажены состязательными атаками плохих актеров, у которых, возможно, есть какая-то преднамеренная причина не хотеть использовать данные в том виде, в каком они существуют, или хотеть убедиться, что данные предвзяты. Предвзятость является наиболее очевидным примером того, как ИИ вступает в традиционные формы несправедливости и неравенства.

Считаете ли вы, что часть проблемы смещения и, в более общем плане, проблемная проблема данных связана с отсутствием разнообразия в ИИ и технической индустрии в целом?

Я думаю, что это часть этого. Я думаю, что есть присущие им характеристики тех, кого привлекают рабочие места в отрасли, но я не думаю, что это просто так. Я думаю, что алгоритм глубокого обучения может быть реализован исследователем, который очень хорошо знает эту область. И набор данных был собран не людьми в технологической отрасли, а историей исследований в этой области. Поэтому я не думаю, что мы должны преувеличивать дисбаланс в техно-энтузиастической ориентации инженеров в этой области, в которой доминируют мужчины. Но очевидно, что когда вы говорите о проблемах расы или пола, другие взгляды на ввод данных и вывод данных, а также на то, как разработан алгоритм, несомненно, улучшат состояние этики.

Считаете ли вы, что распространение панелей по этике в технологических компаниях – это просто дымовая завеса, чтобы отразить то, что их действительно беспокоит – т.е. больше регулирования?

Это сложный вопрос. Я бы сказал, что я не видел много из этих советов по этике, чтобы заставить меня чувствовать, что они что-то кроме этого. Не то чтобы не было компаний, которые хотели бы хотя бы рассмотреть некоторые способы, которыми они подвергаются этическим вызовам. Поэтому я не сомневаюсь, что Google или Facebook не захотят устранить, скажем, ложь или ошибочную информацию. Но будут ли они делать это за счет своего роста? И могут ли они сделать это или фидуциарная ответственность переопределяет даже то, что может быть добрыми намерениями. Это не значит, что все там плохие, или что технологические компании просто занимаются этикой. Но да, они боятся регулирования, которое будет мешать их способности вводить новшества так, как они хотят вводить новшества. И они очень активны в культе инноваций, который предполагает, что все, что мешает инновациям, плохо. Мы позволяем тем, кто инвестирует в определенные технологии, пожинать плоды без какой-либо ответственности за негативные последствия или нежелательное воздействие этих технологий на общество. Так кто же должен оплачивать социальные издержки, вызванные всем ущербом, причиняемым дезинформацией в социальных сетях? Это, конечно, не Facebook, кто платит за это. Демократии страдают, граждане не получают прививки, потому что они верят в много нечестной информации в Интернете. Существуют значительные социальные издержки, и они не решаются. У правительств также нет денег, чтобы заплатить за это, но они, конечно, не возлагают на компании ответственность за эти социальные издержки так, как они пытались, скажем, с химическими компаниями и другими отраслями, реализация которых является социально разрушительной или может нанести потенциальный вред.

Достаточно ли существующей правовой базы или мы создаем больше законов и больше нормативных актов?

Я думаю, что даже больше, чем законы и нормативные акты, нам нужны эффективные инструменты управления, которые могут устанавливать хорошие стандарты политики. Прямо сейчас в законах и правилах есть проблемы. Они становятся статичными, и по мере изменения технологии они не очень легко меняются. Между внедрением технологии и нашей способностью осуществлять этический правовой надзор существует резкое отставание. Нам также не хватает эффективных основ сотрудничества, чтобы продумать, какой этический, правовой надзор необходим. Это законы и правила или должно быть что-то более мягкое? Существует такая вещь, как мягкий закон, который является стандартами, лабораторными практиками и процедурами. Сила мягкого закона в том, что он немного более гибкий. Вы можете выбросить это, если обстоятельства изменятся. Слабость в том, что это часто неисполнимо. Возможно, нам нужны различные виды режимов управления, где, например, если те, кто внедряет технологию, нарушают существующие стандарты мягкого права, они могут быть привлечены к ответственности за нарушение общественного доверия. Мы не сможем идти в ногу с законами и правилами при каждом рассмотрении. Но нам нужен какой-то способ уменьшить вред.

‘Who’s to pay for the societal costs?’

‘Who’s to pay for the societal costs?’

«Я надеюсь, что пандемия представляет собой небольшой тайм-аут и признание общественностью, и, возможно, даже теми, у кого есть ресурсы и капитал, что это действительно опасный момент в истории человечества», – говорит Валлах.

Что может сделать средний человек перед лицом всего этого?

Средний человек должен получить больше образования и нуждается в достаточной цифровой грамотности. Для собственной самозащиты люди должны знать, когда ими манипулируют или обманывают, и какие меры они должны принять для защиты своей частной жизни или своих прав. Я считаю, что им также следует потратить немного времени, чтобы увидеть, кто является добросовестными брокерами, кто является людьми, которым они обычно доверяют и пытаются двигать общество и внедрять новые технологии в позитивные направления. Если бы они могли найти способы поддержать тех, кто действует добросовестно, это было бы большой помощью. Одна из проблем на данный момент заключается в том, что у нас есть много хороших идей, доброжелательных людей, но большинство из них не могут найти ресурсы и время для выполнения своей работы. Когда они, например, пытаются привлечь капитал, им часто приходится ставить под угрозу свою целостность, чтобы получить этот капитал. Так что, да, может быть, они могут получить немного денег от технической индустрии, чтобы работать над определенными проблемами, но, вероятно, не работать над другими проблемами, которые, вероятно, будут теми, которых технологическая индустрия больше всего боится.

Вы оптимистичны, что вред может быть сдержан?

Я вышел из чрева как наполовину человек. Я обрисовываю в общих чертах так много вещей, которые могут пойти не так, и некоторые люди немного расстраиваются, когда слушают меня. Я признаю, что я не всегда рассказываю всю историю, я особо оцениваю происходящее, подчеркивая, что может пойти не так. Но мой оптимизм не о нынешней траектории. Мой оптимизм заключается в том смысле, что, возможно, мы начинаем его получать: пожары в Греции, пожары в Австралии, пожары в Бразилии, пожары в Калифорнии. Злобные ураганы раз в век предупреждают людей о том, что глобальное потепление больше не может обсуждаться; изменение климата происходит. Я надеюсь, что пандемия представляет собой небольшой тайм-аут и признание со стороны общественности, а может быть, даже тех, у кого есть ресурсы и капитал, что это действительно опасный момент в истории человечества. Мы вступили в трудное время, и мировой порядок может распутаться разными способами, будь то крах ведущей демократии или это сожжение крупного города или пандемия, которая в конечном итоге просто не поддается контролю. Я надеюсь, что он говорит всем нам, что пришло время действовать, даже если некоторые из наших действий недостаточны или немного наивны. Даже те, кто стал богатым, иногда за счет других, начинают понимать, что их внуки называют себя «домерами».Их внуки задаются вопросом, есть ли у них будущее. Надеюсь, что это сообщение дойдет до тех, кто в состоянии что-то сделать, что, возможно, мы построили мир, который, если мы не будем действовать поспешно, наши внуки будут лишены будущего, сравнимого с нашим, независимо от того, сколько денег мы сможем им получить.

Может ли такое пробуждение происходить, полагаясь на те же инструменты, как, например, социальные сети, которыми манипулируют алгоритмы и так далее?

Я считаю, что в нас есть моральный компас, что есть способность, будь то душа или что-то вроде души, которая говорит: «Это работает, это не работает», и может найти соответствующие пути, предполагая это наше намерение. Я надеюсь, что масса человечества понимает, что это должно быть нашим намерением, включая людей добрых намерений, которые могли внести свой вклад в проблему.

Тесла Бот

Генеральный директор Tesla Элон Маск на прошлой неделе заявил, что его компания работает над роботом-гуманоидом и что он создаст прототип «когда-нибудь в следующем году.«Как вы относитесь к этому?

Производители десятилетиями использовали роботизированные устройства для выполнения опасных и повторяющихся задач при сборке автомобилей. В своей типичной вспышке драмы и обмана Элон Маск объявил, что Тесла будет создавать роботов-гуманоидов для выполнения аналогичных задач. Почему? Почему они должны выглядеть людьми? Можно только предположить, что это еще один пример мастерства Маск в привлечении внимания и публичности, поскольку он позиционирует себя и свои компании как самых передовых в мире. Тем не менее, он, как и многие другие компании, поймет, что действительно полезные гуманоиды, которые функционируют, как и было обещано, трудно построить и редко оправдывают ожидания, помимо способности выполнять несколько трюков и задач, для которых они были специально разработаны.

Конференция SNF 2021 Nostos: человечество и искусственный интеллект, 26-28 августа, в Культурном центре Фонда Ставроса Ниархоса (SNFCC). Венделл Уоллах примет участие в панельной дискуссии в четверг «AI Future (s) Want Wanting.»Для получения более подробной информации о протоколах конференции и приема, нажмите здесь.

Насколько публикация полезна?

Нажмите на звезду, чтобы оценить!

Средняя оценка / 5. Количество оценок:

Оценок пока нет. Поставьте оценку первым.

Сожалеем, что вы поставили низкую оценку!

Позвольте нам стать лучше!

Расскажите, как нам стать лучше?

Коронавирус: Эксперт рекомендует двойную маскировку для предотвращения заражения
Как показывает исследование, защита от вакцины против Covid ослабевает в течение шести месяцев

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Заполните поле
Заполните поле
Пожалуйста, введите корректный адрес email.

Меню