Энциклопедия непознанного, интересного, нобъяснимого и загадочного
Главная старницаВидеоархив
Обратная связьSenav в twittereRSS 2.0
 
ПОПУЛЯРНЫЕ НОВОСТИ
РУБРИКИ САЙТА
» Мифология
» Теория Заговора
» Свободная энергия
» Выдающиеся люди
» Планета Земля
» Тайны истории
» Изобретения
» Непознанное
» Космос
» НЛО
» Читальный зал
 

Гадание



ОНИ ЗА НАМИ СЛЕДЯТ Пожелания и отзывы
Мы рады Вас видеть на нашем проекте о непознанном и интересном SEnav.net!
В любое время Вы можете зарегистрироваться, и стать полноценным пользователем сайта.
Вы сможете оставлять комментарии к публикациям, голосовать в опросах, а самое главное ‒ присылать свои материалы! Надеемся, что Вы проведете время с пользой и удовольствием. Приятного отдыха и хорошего настроения!
 
Шекспир не Шекспир?
Опубликована 11 октября 2012,  в раздел » Видеоархив    
Шекспир не Шекспир?
Смотрели: 110874 человек  Оставили свои мысли: 1     
Прочитать статью целиком

Суперумные компьютеры или роботы - угроза человечеству
Опубликована 27 марта 2012,  в раздел » Планета Земля   |  разместил: Lандыш
Суперумные компьютеры или роботы - угроза человечеству
Суперумные компьютеры или роботы, угрожающие существованию человеческого рода – излюбленный сюжет научной фантастики. В реальности, по мнению учёных, подобный сценарий судного дня можно предотвратить только создав виртуальную «тюрьму» для содержания искусственного интеллекта (ИИ). И сделать это надо до того, как он научится осознавать и совершенствовать самого себя.


Если выпустить этого джина из бутылки, то из оракула, который решает наши проблемы, он может превратиться в апокалипсическую угрозу, – уверен Роман Ямпольский, учёный из Луисвиллского университета (шт. Кентукки), работающий в области компьютерных наук. Необходимо тщательно спланировать условия, в которых будет содержаться ИИ – так, чтобы он не смог вырваться на свободу при помощи угроз, подкупа, соблазна или компьютерного взлома.

«Он может изобрести множество способов воздействия, провернуть сложную социо-инженерную комбинацию и использовать уже существующие аппаратные компоненты в целях, которые мы не можем даже вообразить, – полагает Ямпольский. – Такой софт обладает неограниченными возможностями для заражения компьютеров и сетей. ИИ может найти способы воздействовать на человеческую психику, подкупать или шантажировать людей, которые находятся с ним в контакте».

Появление новой сферы научных исследований, занимающейся проблемой создания «тюрьмы» для искусственного интеллекта, имеет и дополнительные преимущества. Эти исследования очень полезны для улучшения компьютерной безопасности и криптографии, уверен Ямпольский. Его предложения были детально изложены в мартовском номере академического издания Journal of Consciousness Studies.

Как устроить западню для Скайнет

Для начала можно заключить искусственный интеллект внутри «виртуальной машины». Пусть он работает в пределах обычной операционной системы – ограничение доступа ИИ к софту и оборудованию главного компьютера сделает его значительно безобидней. Во всяком случае, умный ИИ не сможет рассылать своим сторонникам-людям тайные сообщения, отбивая охлаждающими вентиляторами азбуку Морзе.

Посадить искусственный интеллект в компьютер без выхода в интернет – хороший способ помешать коварным планам ИИ по защите Земли от нас с вами. В случае любого другого сбоя исследователи всегда могут притормозить мыслительный процесс ИИ, сбавив скорость обработки данных компьютера, регулярно нажимая кнопку «сброс» или отключив ИИ от источника энергоснабжения.

Такие меры безопасности предназначены для борьбы с особо умными и опасными компьютерными вирусами, но насколько эффективными они окажутся на самом деле – приходится только гадать.

«Уловка-22» (роман амер. писателя Дж. Хеллера; прим. mixednews) заключается в том, что мы не можем провести полномасштабные испытания наших идей, пока разработка ИИ не закончена. Но для того, чтобы сделать ИИ безопасным, необходимо разработать комплекс соответствующих мер, – считает Ямпольский. – Оптимальный вариант – ввести ограничения на использование систем ИИ а затем, по мере необходимости, менять эти ограничения в соответствии с повышающимися возможностями ИИ».

Учёный Роман Ямпольский предложил использовать знак "@" или другие знаки, использующиеся сегодня для обозначения радиационной или биологической угрозы для указания на наличие опасности, связанной с искусственным интеллектом.

Никогда не приставляйте к машине охранника-человека

Во время невинной, на первый взгляд, беседы с охранником ничто не помешает ИИ использовать такие психологические приёмы, как дружба или шантаж. Человека можно подкупить, посулив ему идеальное здоровье, бессмертие, или даже пообещать вернуть с того света родных и друзей. Или добиться чего угодно угрозами.

Самый безопасный способ общения с ИИ – заставить его, при решении специфической научной или технической задачи, выбирать ответ из множества имеющихся вариантов, – объясняет Ямпольский. Это поможет держать супер-умного оракула на коротком поводке.

Многие исследователи считают, что, несмотря на все меры предосторожности, держать умника ИИ под замком бесконечно не удастся. Последний эксперимент Элиэзера Юдковского, научного сотрудника Института сингулярности по созданию Искусственного Интеллекта, показал, что даже интеллект человеческого уровня может обмануть человека и «сбежать» из заточения.

Тем не менее, Ямпольский настаивает на содержании ИИ в строгой изоляции – это всё же лучше, чем махнуть рукой и предоставить ему полную свободу. Но если развитие ИИ достигнет точки, когда он сможет манипулировать человеком, используя подсознание (предсказание будущего), телепатию или телекинез – последствия будут непредсказуемы.

«Если такой ИИ будет самосовершенствоваться и достигнет уровня значительно превышающего возможности человеческого интеллекта, последствия невозможно даже представить» – предостерегает Ямпольский.

mixednews.ru







Уважаемый посетитель, если захотите записать свою мысль на страницах SEnav.net - Вам необходимо будет зарегистрироваться, либо войти на сайт под своим именем.
 (голосов: 0)
Просмотров: 1553  |   | 

ЧИТАЙТЕ ТАКЖЕ:
  • В России скоро создадут искусственный интеллект
  • Искусственный интеллект: партнер и наставник для будущего поколения
  • Искусственный интеллект может выйти за пределы интернета и стать неуправляе ...
  • Стивен Возняк назвал искусственный интеллект угрозой для человечества
  • Компьютеры убивают


  •    
     
      Информация  
     
       
     
    Посетители, находящиеся в группе Гости, не могут оставлять комментарии в данной новости.

     
       
         


    Написал: Кузьмич
    в теме: В Греции нашли возможную гробницу любовника Александра Македонского


    Написал: Кузьмич
    в теме: Зонд "Розетта" достиг орбиты Юпитер


    Написал: Кузьмич
    в теме: Зонд "Розетта" достиг орбиты Юпитер


    Написал: Fobbescerve
    в теме: Люди имеют внеземное происхождение


    Написал: Starking
    в теме: Люди имеют внеземное происхождение


    Написал: Кузьмич
    в теме: Дик Чейни предупредил об атаке пришельцами США импульсным оружием


    Написал: Кузьмич
    в теме: Бразилия займется производством комплексов «Игла-С»





    Что более реально?

    Инопланетяне
    Параллельный мир
    Древние цивилизации
    Сверхспособности
    Индиго
    Бог
    Февраль 2024 (2)
    Январь 2024 (4)
    Декабрь 2023 (7)
    Ноябрь 2023 (10)
    Октябрь 2023 (9)
    Сентябрь 2023 (7)


    Rambler's Top100
    Главная   •   Регистрация   •   Поиск по сайту   •   Карта сайта
    Копирование материалов со сылкой на источник поощряется положительной кармой!
      SEnav.net © 2007 – 2016
    Реклама на сайте