Как искусственный интеллект может испортить вам жизнь — шесть самых реалистичных и странных способов

14.10.2024

До создания полноценного ИИ обладающего собственной волей еще довольно далеко, равно как и до аполитичного сценария восстания машин. Но даже на своей текущей стадии развития ИИ может знатно подпортить вам жизнь. Как именно? Скорее всего, эта информация вас удивит.

Технология искусственного интеллекта продвинулась вперед огромными скачками за последние несколько месяцев, но многие эксперты по машинному обучению боятся возможных катастроф, вызванных ИИ. Вместо ядерного удара и захвата мира роботами, мы можем столкнуться с безжалостными пробками, проблемами с кредитными отчетами и еще большим неравенством. Кроме того, опасным может оказаться использование машинного обучения в военных целях, где ошибочные действия ИИ могут привести к гибели людей. Специалисты в области исследования опасностей ИИ работают над предотвращением подобных сценариев.

Несмотря на потенциальные угрозы, связанные с искусственным интеллектом, многие эксперты считают, что возможности этой технологии стоит использовать для улучшения жизни людей во всех областях, от медицины до энергетики. Правильное использование ИИ может значительно увеличить производительность и эффективность, а также помочь решить сложные социальные проблемы. Однако, чтобы справиться с угрозами, необходимо продолжать исследования и развивать системы безопасности, чтобы искусственный интеллект мог быть эффективно использован во благо человечества.

Но есть несколько "вредительских" сценариев поведения ИИ, которые беспокоят исследователей.

Создание дубликатов данных

В 2011 году губернатор штата Мичиган санкционировал выделение средств Агентству страхования на случай безработицы штата Мичиган на разработку нового алгоритма, который должен был выявлять факты мошенничества. Работая с тремя разными компаниями-разработчиками программного обеспечения, агентство запустило Мичиганскую интегрированную автоматизированную систему данных, или MiDAS, в 2013 году. Хотя агентство никогда не раскрывало, где алгоритм собирал данные, последующие судебные процессы предполагают, что оно могло собирать неточные данные из наборов данных предоставлялись работодателям. В течение следующих двух лет MiDAS ложно обвинила более 40 000 человек в мошенничестве, во многих случаях вынуждая платить серьезные штрафы.

Как будто этого было недостаточно, как только MiDAS неправильно идентифицировала тысячи невинных людей как мошенников в государственной базе данных, другие учреждения, которые использовали базу данных для проверки биографических данных, повторили эту фальшивую информацию. Организация по этике AI Now, называет искаженные онлайн-версии реальных людей, созданные MiDAS, "двойниками данных". Они во многом похожи на украденные личные данные, и однажды установленные, их практически невозможно удалить. 

Так что использование искусственного интеллекта должно быть контролируемым и беспристрастным, чтобы избежать подобных ситуаций, как с MiDAS. Необходимым условием безопасности при использовании AI является регулирование и контроль алгоритмов. Кроме того, нужно уделять большое внимание обучению людей на использование новых технологий и систем безопасности, чтобы они могли более точно и осознанно вводить информацию в базы данных. В противном случае мы рискуем создать двойников данных, которые могут нанести вред каждому из нас.

Стохастический попугай

Исследователи выразили беспокойство относительно возможности искусственного интеллекта создавать массово дезинформационный контент на Интернете. Особенно опасны алгоритмы, такие как ChatGPT, которые могут создавать целые эссе и предложения, которые звучат вполне разумно, но на самом деле содержат полную ложь. Научный комьютерщик Эми Чжан объясняет, что это может привести к созданию такого количества спама, что будет очень трудно найти качественную информацию в Интернете. Создатель популярного блога AI Weirdness Джанель Шейн даже предположила, что фальшивые рецепты, созданные искусственным интеллектом, могут обманывать потенциальных поваров и всплывать в результатах поиска Google. В конечном итоге, стохастический попугайский контент может превзойти слова, созданные людьми, и превратить поиск в Интернете в бесполезную задачу для пользователей.

Тем не менее, ученые не считают, что ИИ является совершенно вредным. Они отмечают, что искусственный интеллект также может быть использован для создания качественного контента и помощи в решении решения многих глобальных проблем, таких как изменение климата и безопасность транспортных средств. Однако, чтобы это произошло, необходимо разработать строгие стандарты и этические нормы для использования ИИ, чтобы уменьшить его потенциальный вред. В результате, использование ИИ должно быть более сбалансированным и ответственным в будущем.

Последствия отсутствия контроля

Недавние исследования показали, что использование искусственного интеллекта в охране правопорядка может привести к неправильному обвинению невинных людей. Это связано с тем, что большинство алгоритмов распознавания лиц были обучены на старых наборах данных, преимущественно для белых лиц, что приводит к ошибкам в определении чернокожих. Также отмечается, что большинство технологий ИИ на самом деле основано на устаревших системах из прошлого века. Эксперты в области ИИ, предлагают использовать ИИ для создания качественного контента и решения глобальных проблем, таких как изменение климата и безопасность транспортных средств, но важно разработать строгие стандарты и этические нормы для его использования, чтобы уменьшить потенциальный вред этой технологии.

Кроме того, недавно выяснилось, что использование ИИ для принятия решений в судовой системе, также может быть проблематичным. Эксперты обнаружили, что алгоритмы могут быть предвзяты и дискриминирующими по отношению к некоторым группам, что может привести к ошибочным решениям и несправедливости в судебной системе. Поэтому, необходимо разработать строгие протоколы для использования ИИ в сфере правосудия, чтобы избежать неправильных заключений и обвинений, а также сохранить справедливость и достойность для всех людей.

Эта проблема также затрагивает страны по всему миру, где власти начинают все больше использовать технологии ИИ, чтобы улучшить охрану безопасности и борьбу с преступностью. Однако, необходимо учитывать то, что ИИ не является беспристрастным, а склонен к ошибкам, дискриминации и пропаганде стереотипов. Поэтому, перед тем, как принимать решения об использовании ИИ в сфере охраны правопорядка, необходимо проводить тщательное обучение алгоритмов на актуальных данных и разрабатывать этические нормы для его использования. Кроме того, важно учитывать мнение общественности и защищать права и свободы всех людей, чтобы избежать возможных негативных последствий.

Слишком сложная логика

Представьте себе военачальника, сражающегося с повстанцами на поле боя будущего, окутанного дымом и имеющего дело с сотнями противоречивых мнений о том, что происходит. Он должен принять быстрое решение, которое может стоить тысячи жизней. Что ей делать? Может обратиться к ИИ? Такие организации, как Агентство перспективных исследовательских проектов Министерства обороны США (DARPA), уже начали работу над инициативой под названием ITM (In The Moment), целью которой является разработка алгоритма, помогающего принимать сложные решения на поле боя. Нетрудно представить будущее, в котором алгоритмы, обученные на данных о предыдущих конфликтах, также будут принимать решения о стратегии.

Но экспертов беспокоит проблема, которую они называют "черным ящиком". Благодаря нейронным сетям, составляющим основу наших алгоритмов, мы можем видеть входящие и исходящие данные, но понятия не имеем, что именно происходит внутри. Это происходит сейчас, когда мы обучаем ИИ играть в шахматы. Компьютер побеждает, придумывая ходы, которые люди никогда не могли вообразить за тысячи лет игры. Но если никто не уверен, почему движения работают или как их придумал ИИ, то как вы можете быть уверены, что они этичны или даже желательны?

Вполне возможна ситуация, что в какой-то момент командир спросит у группы дронов с искусственным интеллектом: Что делать дальше? И они разработают стратегию, непонятную командиру. Например, дроны могут предложить бомбить всех, кто носит желтые шляпы. И тогда командиру под огромным давлением придется решать, что делать. Должен ли этот человек доверять безумной идее дронов? Может быть, все повстанцы тайно вязали желтые шапки? Но что, если алгоритм машин ошибочно пометил невинных бабушек как подозрительных? Командир не узнает, пока она не проверит, а к тому времени будет слишком поздно.

Импланты, которые вас не слушают

В конце концов, мы собираемся пригласить алгоритмы внутрь нашего тела. Исследователи разработали мозговые имплантаты с улучшенным ИИ для помощи пациентам с болезнью Паркинсона. Также Microsoft добавляет алгоритм прогнозирования текста, что может вызвать этические вопросы. Некоторые эксперты опасаются, что такие технологии могут привести к ограничению свободы слова и мыслей. Необходимо тщательное обучение и разработка этических норм для безопасного использования алгоритмов ИИ.

Несмотря на все риски, связанные с использованием алгоритмов ИИ в нашем теле, многие ученые и компании продолжают разрабатывать подобные технологии. Они видят в них огромный потенциал для улучшения качества жизни людей, в том числе для борьбы с болезнями и ограничений нашего тела. Однако, существует необходимость в разработке этических норм и правил, которые гарантировали бы безопасное использование этих технологий, предотвращали бы их злоупотребление и сохраняли бы нашу свободу слова и мыслей. Как только мы справимся с этим этическим вызовом, мы сможем получить впечатляющие результаты в области медицинских технологий и трансформировать нашу жизнь в лучшую сторону.

Киберпробки

Однако, несмотря на все это, многие ученые и компании продолжают разрабатывать новые технологии ИИ, включая автономные транспортные средства и умные города. Они видят в них огромный потенциал для улучшения качества жизни людей и устранения многих проблем. Однако, существует необходимость в тщательном тестировании и регулировании этих технологий, чтобы избежать возможных негативных последствий. Ученые продолжают исследовать эти проблемы и искать решения, которые помогли бы достичь лучшего баланса между использованием ИИ и защитой наших прав и свобод. Мы надеемся, что такие научные исследования позволят нам создать более безопасное и эффективное общество, которое полностью использовало бы потенциал ИИ.

Несмотря на то, что использование ИИ может привести к некоторым проблемам, есть и другая сторона медали. Эти технологии могут дать большой толчок развитию экономики и созданию новых рабочих мест. Кроме того, они могут помочь решать некоторые глобальные проблемы, такие как изменение климата, бедность и голод. Использование систем ИИ во многих отраслях также может значительно повысить эффективность производства и снизить затраты. Поэтому важно не только обратить внимание на потенциальные угрозы, но и рассмотреть все возможности, которые предоставляют технологии ИИ.

Теги: