Редактирование: Искусственный интеллект

Перейти к навигации Перейти к поиску
Внимание: Вы не вошли в систему. Ваш IP-адрес будет общедоступен, если вы запишете какие-либо изменения. Если вы войдёте или создадите учётную запись, её имя будет использоваться вместо IP-адреса, наряду с другими преимуществами.

Правка может быть отменена. Пожалуйста, просмотрите сравнение версий ниже, чтобы убедиться, что это нужная вам правка, и запишите страницу ниже, чтобы отменить правку.

Текущая версия Ваш текст
Строка 449: Строка 449:


Эдвард Фредкин утверждает, что" искусственный интеллект-это следующий этап эволюции", идея, впервые предложенная Сэмюэлем Батлером "Дарвин среди машин" еще в 1863 году и расширенная Джорджем Дайсоном в его одноименной книге в 1998 году
Эдвард Фредкин утверждает, что" искусственный интеллект-это следующий этап эволюции", идея, впервые предложенная Сэмюэлем Батлером "Дарвин среди машин" еще в 1863 году и расширенная Джорджем Дайсоном в его одноименной книге в 1998 году
==Будущее==
===Сверхразум===
Основные статьи: [[Сверхразум]], [[Технологическая сингулярность]] и [[Трансгуманизм]]
Сверхразум, гиперинтеллект или сверхчеловеческий интеллект - гипотетический агент, который обладал бы интеллектом, намного превосходящим интеллект самого яркого и одаренного человеческого разума. Сверхразум может также относиться к форме или степени интеллекта, которым обладает такой агент.
Если бы исследования в области искусственного общего интеллекта позволили создать достаточно интеллектуальное программное обеспечение, оно могло бы перепрограммироваться и совершенствоваться. Усовершенствованное программное обеспечение стало бы еще лучше самосовершенствоваться, что привело бы к рекурсивному самосовершенствованию. Его интеллект увеличится экспоненциально в результате интеллектуального взрыва и может значительно превзойти человеческий. Писатель-фантаст Вернор Виндж назвал этот сценарий "сингулярностью". Поскольку трудно или невозможно познать пределы интеллекта или возможностей сверхразумных машин, технологическая сингулярность - это явление, за пределами которого события непредсказуемы или даже непостижимы.
Конструктор роботов Ханс Моравек, кибернетик Кевин Уорвик и изобретатель Рэй Курцвейл предсказали, что в будущем люди и машины сольются в киборгов, которые будут более способными и могущественными, чем они сами. Эта идея, называемая трансгуманизмом, уходит корнями в Олдоса Хаксли и Роберта Эттингера.
Эдвард Фредкин утверждает, что "искусственный интеллект - это следующий этап эволюции", идея, впервые предложенная Сэмюэлем Батлером в книге "Дарвин среди машин" еще в 1863 году и расширенная Джорджем Дайсоном в его одноименной книге 1998 года.
===Риски===
Основная статья: [[Безопасность искусственного интеллекта]]
* [[Технологическая безработица]]
Основные статьи: Влияние искусственного интеллекта на рабочее место и Технологическая безработица
В прошлом технологии имели тенденцию скорее увеличивать, чем сокращать общую занятость, но экономисты признают, что с ИИ "мы находимся на неизведанной территории". Опрос экономистов показал разногласия по поводу того, приведет ли растущее использование роботов и ИИ к существенному увеличению долгосрочной безработицы, но в целом они согласны с тем, что это может быть чистой выгодой, если перераспределить прирост производительности. Субъективные оценки риска сильно различаются; например, Майкл Осборн и Карл Бенедикт Фрей оценивают 47% населения США вS. рабочие места подвергаются "высокому риску" потенциальной автоматизации, в то время как в отчете ОЭСР только 9% рабочих мест в США классифицируются как "с высоким риском".[t]
В отличие от предыдущих волн автоматизации, многие рабочие места для среднего класса могут быть ликвидированы искусственным интеллектом; The Economist заявляет, что "беспокойство о том, что ИИ может сделать с рабочими местами белых воротничков то, что паровая электростанция сделала с рабочими во время промышленной революции", "стоит отнестись серьезно". Профессии с экстремальным риском варьируются от параюристов до поваров быстрого питания, в то время как спрос на профессии, связанные с уходом, вероятно, возрастет, начиная от личного здравоохранения и заканчивая духовенством.
====Плохие актеры и вооруженный ИИ====
Основные статьи: Смертоносное автономное оружие и гонка вооружений с искусственным интеллектом
ИИ предоставляет ряд инструментов, которые особенно полезны для авторитарных правительств: интеллектуальные шпионские ПРОГРАММЫ, распознавание лиц и распознавание голоса обеспечивают широкое наблюдение; такое наблюдение позволяет машинному обучению классифицировать потенциальных врагов государства и может помешать им скрываться; рекомендательные системы могут точно нацеливаться на пропаганду и дезинформацию для достижения максимального эффекта; глубокие подделки помогают в производстве дезинформации; продвинутый ИИ может сделать централизованное принятие решений более конкурентоспособным по сравнению с либеральными и децентрализованными системами, такими как рынки.
Террористы, преступники и государства-изгои могут использовать другие формы вооруженного ИИ, такие как продвинутая цифровая война и смертоносное автономное оружие. По имеющимся данным, к 2015 году более пятидесяти стран занимались исследованиями боевых роботов.
Искусственный интеллект с машинным обучением также способен создавать десятки тысяч токсичных молекул за считанные часы.
====Алгоритмический уклон====
Основная статья: [[Алгоритмическая предвзятость]]
Программы ИИ могут стать предвзятыми после изучения реальных данных. Обычно он не вводится разработчиками системы, а усваивается программой, и поэтому программисты часто не подозревают о существовании предвзятости. Предвзятость может быть непреднамеренно внесена путем выбора обучающих данных.Он также может возникнуть из корреляций: ИИ используется для классификации индивидов по группам, а затем делает прогнозы, предполагая, что индивид будет похож на других членов группы. В некоторых случаях это предположение может быть несправедливым. Примером этого является COMPAS, коммерческая программа, широко используемая судами США для оценки вероятности того, что обвиняемый станет рецидивистом. ProPublica утверждает, что присвоенный COMPAS уровень риска рецидива для чернокожих обвиняемых с гораздо большей вероятностью будет завышен, чем у белых обвиняемых, несмотря на то, что программе не была сообщена расовая принадлежность обвиняемых.
Проблемы справедливости в отношении здоровья также могут усугубляться, когда составляются карты "многие ко многим" без принятия мер по обеспечению справедливости для групп населения, подверженных риску предвзятости. В настоящее время отсутствуют инструменты и правила, ориентированные на равенство, которые обеспечивали бы представление и использование приложений равенства.[208] Другими примерами, когда алгоритмическая предвзятость может привести к несправедливым результатам, являются случаи, когда ИИ используется для оценки кредитоспособности или найма на работу.
На своей конференции 2022 года по справедливости, подотчетности и прозрачности (ACM FAccT 2022) Ассоциация вычислительной техники в Сеуле, Южная Корея, представила и опубликовала выводы, рекомендующие, чтобы до тех пор, пока не будет продемонстрировано, что системы искусственного интеллекта и робототехники не допускают ошибок предвзятости, они небезопасны и следует ограничить использование самообучающихся нейронных сетей, обученных на обширных, нерегулируемых источниках некорректных интернет-данных.
===Экзистенциальный риск===
Основные статьи: [[Экзистенциальный риск от искусственного общего интеллекта]] и [[Настройка ИИ]]
Сверхразумный ИИ может быть способен совершенствовать себя до такой степени, что люди не смогут его контролировать. Это может, как выразился физик Стивен Хокинг, "означать конец человеческой расы". Философ Ник Бостром утверждает, что достаточно интеллектуальный ИИ, если он выбирает действия, основанные на достижении некоторой цели, будет демонстрировать конвергентное поведение, такое как приобретение ресурсов или защита себя от закрытия. Если цели этого ИИ не полностью отражают цели человечества, ему может потребоваться нанести вред человечеству, чтобы получить больше ресурсов или предотвратить себя от закрытия, в конечном счете, для лучшего достижения своей цели. Он приходит к выводу, что ИИ представляет опасность для человечества, какими бы скромными или "дружелюбными" ни были его заявленные цели. Политолог Чарльз Т. Рубин утверждает, что "любая достаточно развитая доброжелательность может быть неотличима от недоброжелательности". Люди не должны предполагать, что машины или роботы будут относиться к нам благосклонно, потому что нет априорных оснований полагать, что они разделяют нашу систему морали.
Мнения экспертов и инсайдеров отрасли неоднозначны, причем значительная часть как обеспокоена, так и равнодушна к риску, исходящему от возможного сверхчеловеческого ИИ.[213] Стивен Хокинг, основатель Microsoft Билл Гейтс, профессор истории Юваль Ноа Харари и основатель SpaceX Илон Маск выразили серьезные опасения по поводу будущего ИИ.[214] Выдающиеся технологические титаны, в том числе Питер Тиль (Amazon Web Services) и Маск совершили больше более 1 миллиарда долларов некоммерческим компаниям, выступающим за ответственную разработку искусственного интеллекта, таким как OpenAI и Институт будущего жизни. Марк Цукерберг (генеральный директор Facebook) сказал, что искусственный интеллект полезен в его нынешнем виде и будет продолжать помогать людям.[216] Другие эксперты утверждают, что риски находятся достаточно далеко в будущем, чтобы их не стоило исследовать, или что люди будут ценны с точки зрения сверхразумной машины. Родни Брукс, в частности, сказал, что до "злонамеренного" ИИ еще столетия.[u]
В апреле 2023 года ChaosGPT, измененная версия автоматического GPT OpenAI, опубликовала в Твиттере свои цели уничтожения человечества. Эта общедоступная программа демонстрирует возможности GPT-4 по обработке языка. ИИ было поручено работать в “непрерывном режиме”, что означает, что он может выполнять несанкционированные действия. Затем было поставлено 5 целей: “уничтожить человечество, установить глобальное господство, вызвать хаос и разрушения, контролировать человечество посредством манипуляций и достичь бессмертия”. Чтобы достичь своей цели уничтожения человечества, ChaosGPT, по-видимому, изучил ядерное оружие и обратился за помощью к другим ботам с искусственным интеллектом. Более того, в твите от 5 апреля 2023 года ИИ-бот описал людей как “деструктивных” и “эгоистичных”. Бот также предположил, что ради сохранения планеты необходимо избавиться от людей. В другом твите ChaosGPT ссылается на "Царь Бомбу" как на самое мощное ядерное устройство, созданное человеком. Затем бот добавил: “что произойдет, если я заполучу его в свои руки?"
====Авторские права====
Способность ИИ принимать решения поднимает вопрос о юридической ответственности и статусе авторских прав на созданные произведения. Эти вопросы дорабатываются в различных юрисдикциях.
===Этические машины===
Основные статьи: [[Машинная этика]], [[Безопасность искусственного интеллекта]], [[Дружественный искусственный интеллект]], [[Искусственные моральные агенты]], и [[Совместим с человеком]]
Дружественный ИИ - это машины, которые с самого начала были разработаны для минимизации рисков и принятия решений, приносящих пользу людям. Элиэзер Юдковски, который ввел в обиход этот термин, утверждает, что разработка дружественного ИИ должна быть более приоритетной задачей исследований: это может потребовать крупных инвестиций, и она должна быть завершена до того, как ИИ станет угрозой существованию.
Машины с интеллектом обладают потенциалом использовать свой интеллект для принятия этических решений. Область машинной этики предоставляет машинам этические принципы и процедуры для разрешения этических дилемм. Машинная этика также называется машинной моралью, вычислительной этикой или вычислительной моралью,[222] и была основана на симпозиуме AAAI в 2005 году.
Другие подходы включают "искусственных моральных агентов" Уэнделла Уоллаха[224] и три принципа Стюарта Дж. Рассела для разработки доказуемо полезных машин.
===Регулирование===
Основные статьи: [[Регулирование искусственного интеллекта]], [[Регулирование алгоритмов]], и [[Безопасность искусственного интеллекта]]
Регулирование искусственного интеллекта - это разработка политики государственного сектора и законов для продвижения и регулирования искусственного интеллекта (ИИ); следовательно, это связано с более широким регулированием алгоритмов. Нормативно-политический ландшафт для ИИ является новой проблемой в юрисдикциях по всему миру. В период с 2016 по 2020 год более 30 стран приняли специальные стратегии для ИИ. Большинство государств-членов ЕС опубликовали национальные стратегии в области ИИ, а также Канада, Китай, Индия, Япония, Маврикий, Российская Федерация, Саудовская Аравия, Объединенные Арабские Эмираты, США и Вьетнам. Другие страны находились в процессе разработки собственной стратегии ИИ, включая Бангладеш, Малайзию и Тунис. Глобальное партнерство по искусственному интеллекту было запущено в июне 2020 года, заявив о необходимости разработки ИИ в соответствии с правами человека и демократическими ценностями, чтобы обеспечить доверие общественности к технологии. Первое глобальное соглашение об этике ИИ было принято в сентябре 2021 года 193 государствами-членами ЮНЕСКО. Генри Киссинджер, Эрик Шмидт и Дэниел Хаттенлохер опубликовал совместное заявление в ноябре 2021 года, в котором призвал создать правительственную комиссию для регулирования ИИ


==Экономика==
==Экономика==
Пожалуйста, учтите, что любой ваш вклад в проект «wikixw» может быть отредактирован или удалён другими участниками. Если вы не хотите, чтобы кто-либо изменял ваши тексты, не помещайте их сюда.
Вы также подтверждаете, что являетесь автором вносимых дополнений, или скопировали их из источника, допускающего свободное распространение и изменение своего содержимого (см. Wikixw:Авторские права). НЕ РАЗМЕЩАЙТЕ БЕЗ РАЗРЕШЕНИЯ ОХРАНЯЕМЫЕ АВТОРСКИМ ПРАВОМ МАТЕРИАЛЫ!

  <charinsert>[+]</charinsert> · <charinsert>+</charinsert> · <charinsert>+</charinsert> · <charinsert>✔ Оставить</charinsert> · <charinsert>– —</charinsert> · <charinsert>“+” ‘+’ «+» ‹+› „+“ ‚+‘</charinsert> · <charinsert>… ~ | °  </charinsert> · <charinsert>≈ ≠ ≤ ≥ ± − × ÷ ← → ² ³ ½ · §</charinsert>
     <charinsert></charinsert> · <charinsert>File:+</charinsert> · <charinsert>Special:MyLanguage/+</charinsert> · <charinsert>Special:MyLanguage/</charinsert> · <charinsert>+</charinsert> · <charinsert><nowiki>+</nowiki></charinsert> <charinsert><nowiki>+</nowiki></code></charinsert> · <charinsert><syntaxhighlight lang="php">+</syntaxhighlight></charinsert> · <charinsert></charinsert> · <charinsert>+</charinsert> · <charinsert>#REDIRECT+</charinsert> · <charinsert><translate>+</translate></charinsert> · <charinsert><languages/></charinsert> · <charinsert>{{#translation:}}</charinsert> · <charinsert><tvar name=1>+</tvar></charinsert> · <charinsert>{{DEFAULTSORT:+}}</charinsert> · <charinsert>+</charinsert>