Этот сайт использует файлы cookies. Продолжая просмотр страниц сайта, вы соглашаетесь с использованием файлов cookies. Если вам нужна дополнительная информация, пожалуйста, посетите страницу Политика файлов Cookie
Subscribe
Прямой эфир
Cryptocurrencies: 9922 / Markets: 82049
Market Cap: $ 2 289 167 023 004 / 24h Vol: $ 63 028 978 501 / BTC Dominance: 53.578148161702%

Н Новости

[Перевод] Объясняет ли великую тишину Вселенной развитие искусственного интеллекта?

Станет ли искусственный интеллект ASI, искусственным сверхинтеллектом? И если да, то сможет ли ASI стать Великим фильтром?
Станет ли искусственный интеллект ASI, искусственным сверхинтеллектом? И если да, то сможет ли ASI стать Великим фильтром?

Искусственный интеллект даёт о себе знать тысячами различных способов. Он помогает учёным разобраться в огромных массивах данных, помогает обнаружить финансовые махинации, управляет нашими автомобилями, предлагает нам музыку, а его чат-боты сводят нас с ума. И всё это только начинается.

Способны ли мы понять, как быстро будет развиваться ИИ? И если ответ "нет", то не создаём ли мы Великий фильтр?

Парадокс Ферми — это несоответствие между очевидной высокой вероятностью существования развитых цивилизаций и полным отсутствием доказательств того, что они существуют. Было предложено множество решений, почему существует это несоответствие. Одна из идей — "Великий фильтр".

Великий фильтр — это гипотетическое событие или ситуация, которая не позволяет разумной жизни стать межпланетной и межзвёздной и даже приводит к её гибели. Подумайте об изменении климата, ядерной войне, ударах астероидов, взрывах сверхновых, чуме или любых других вещах из галереи катаклизмов.

Или — как насчёт быстрого развития искусственного интеллекта?

В новой статье в журнале Acta Astronautica рассматривается идея о том, что искусственный интеллект становится искусственным сверхинтеллектом (ИСИ) и что ИСИ превращается в Великий фильтр. Статья называется "Является ли искусственный интеллект Великим фильтром, который делает развитые технические цивилизации редкими во Вселенной?". Автор — Майкл Гарретт с факультета физики и астрономии Манчестерского университета.

Некоторые считают, что Великий фильтр не позволяет технологическим видам вроде нашего стать многопланетными. Это плохо, потому что вид подвергается большему риску вымирания или стагнации, имея только один дом. По словам Гаррета, без запасной планеты вид находится в гонке со временем. "Предполагается, что такой фильтр возникает до того, как эти цивилизации смогут развить стабильное, многопланетное существование, что говорит о том, что типичная продолжительность жизни (L) технической цивилизации составляет менее 200 лет", — пишет Гарретт.

Если это правда, то это может объяснить, почему мы не обнаруживаем никаких техносигнатур или других свидетельств существования ВЗР (внеземных разумов). Что это говорит нам о нашей собственной технологической траектории? Если мы столкнулись с ограничением в 200 лет, и если в этом виноват ИСИ, то что нас ждёт? Гарретт подчёркивает "...критическую необходимость быстрого создания нормативной базы для развития ИИ на Земле и развития многопланетного общества для защиты от подобных экзистенциальных угроз".

Изображение нашей прекрасной Земли, сделанное космическим аппаратом Galileo в 1990 году. Нужен ли нам запасной дом?
Изображение нашей прекрасной Земли, сделанное космическим аппаратом Galileo в 1990 году. Нужен ли нам запасной дом?

Многие учёные и другие мыслители говорят, что мы стоим на пороге значительных преобразований. ИИ только начинает менять наши привычки, но большая часть преобразований происходит за кулисами. Похоже, что ИИ способен ликвидировать миллионы рабочих мест, а в паре с робототехникой преобразования кажутся практически неограниченными. Это довольно очевидная проблема.

Но есть и более глубокие, системные проблемы. Кто пишет алгоритмы? Будет ли ИИ каким-то образом дискриминировать людей? Почти наверняка. Подорвут ли конкурирующие алгоритмы сильные демократические общества? Останутся ли открытые общества открытыми? Начнёт ли ИИ принимать решения за нас, и кто будет нести за это ответственность?

Это расширяющееся дерево ветвящихся вопросов, не имеющих чёткой конечной точки.
Известно предупреждение Стивена Хокинга о том, что ИИ может покончить с человечеством, если начнёт развиваться самостоятельно. "Я боюсь, что ИИ может полностью заменить человека. Если люди разрабатывают компьютерные вирусы, то кто-то разработает ИИ, который будет улучшать и воспроизводить себя. Это будет новая форма жизни, которая превзойдёт человека", — заявил он журналу Wired в 2017 году. Когда ИИ сможет превзойти человека, он станет ИСИ.

Стивен Хокинг был одним из главных сторонников колонизации других миров, главным образом для того, чтобы человечество не вымерло. В более поздние годы Хокинг признал, что ИИ может стать угрозой вымирания.
Стивен Хокинг был одним из главных сторонников колонизации других миров, главным образом для того, чтобы человечество не вымерло. В более поздние годы Хокинг признал, что ИИ может стать угрозой вымирания.

Хокинг, возможно, один из самых узнаваемых людей, выступающих с предупреждениями об ИИ, но он далеко не единственный. Средства массовой информации полны обсуждений и предупреждений, наряду со статьями о работе, которую ИИ делает для нас. Самые тревожные предупреждения говорят о том, что ИИ может выйти из-под контроля. Некоторые люди считают это научной фантастикой, но не Гарретт.

"Опасения по поводу того, что искусственный сверхинтеллект в конечном итоге может стать неконтролируемым, считаются серьёзной проблемой — борьба с этой возможностью в ближайшие несколько лет является предметом растущих исследований для лидеров в этой области", — пишет Гарретт.

Если бы ИИ не давал никаких преимуществ, вопрос был бы гораздо проще. Но он даёт всевозможные преимущества, от улучшения медицинской визуализации и диагностики до повышения безопасности транспортных систем. Задача правительств состоит в том, чтобы позволить преимуществам процветать и в то же время ограничить ущерб. "Это особенно актуально в таких областях, как национальная безопасность и оборона, где ответственное и этичное развитие должно быть первостепенным", — пишет Гарретт.

Проблема в том, что мы и наши правительства не готовы к этому. Никогда не было ничего подобного ИИ, и как бы мы ни пытались его концептуализировать и понять траекторию его развития, мы остаёмся неготовыми. И если мы окажемся в таком положении, то в таком же положении окажется и любой другой биологический вид, который разработает ИИ. Появление ИИ, а затем и ИСИ может быть законом природы, что делает его подходящим кандидатом на Великий фильтр.

В этом и заключается риск, которому подвергается ИСИ: Она может перестать нуждаться в биологической жизни, которая её создала. "Достигнув технологической сингулярности, системы ASI быстро превзойдут биологический интеллект и будут развиваться темпами, полностью опережающими традиционные механизмы надзора, что приведёт к непредвиденным и непредусмотренным последствиям, которые вряд ли будут соответствовать биологическим интересам или этике", — объясняет Гарретт.

Как ИСИ может освободиться от назойливой биологической жизни, которая загоняет его в угол? Он может создать смертельный вирус, может помешать сельскохозяйственному производству и распределению продовольствия, может вывести из строя атомную электростанцию, а может начать войну. Мы не знаем, потому что всё это — неизведанная территория. Сотни лет назад картографы рисовали монстров на неизведанных регионах мира, и сейчас мы делаем примерно то же самое.

Это часть карты Carta Marina, датируемой 1539 годом. На ней изображены чудовища, скрывающиеся в неизвестных водах у берегов Скандинавии. Похожи ли страхи перед ИСИ на эти? Или ИСИ может быть Великим фильтром?
Это часть карты Carta Marina, датируемой 1539 годом. На ней изображены чудовища, скрывающиеся в неизвестных водах у берегов Скандинавии. Похожи ли страхи перед ИСИ на эти? Или ИСИ может быть Великим фильтром?

Если всё это звучит как унылая неизбежность, то Гарретт утверждает, что это не так.

Его анализ пока основан на том, что ИСИ и люди занимают одно и то же пространство. Но если мы сможем достичь статуса мультипланетарной планеты, то перспективы изменятся. «Например, многопланетный биологический вид сможет воспользоваться независимым опытом, полученным на разных планетах, диверсифицировать свои стратегии выживания и, возможно, избежать моментального краха, с которым сталкивается цивилизация, привязанная к планете», — пишет Гарретт.

Если мы сможем распределить риск по нескольким планетам вокруг нескольких звёзд, мы сможем защитить себя от худших возможных исходов ИСИ. "Такая распределённая модель существования повышает устойчивость биологической цивилизации к катастрофам, вызванным ИИ, за счёт создания избыточности", — пишет он.

Если одна из планет или аванпостов, которые займут будущие люди, не переживёт технологическую сингулярность ИСИ, другие смогут выжить. И они будут учиться на этом.

Иллюстрация художника, изображающая посадку звездолёта SpaceX на Марс. Если мы сможем стать многопланетным видом, угроза АСИ уменьшится.
Иллюстрация художника, изображающая посадку звездолёта SpaceX на Марс. Если мы сможем стать многопланетным видом, угроза АСИ уменьшится.

Многопланетный статус может не только помочь нам пережить ИСИ. Он может помочь нам взять над ним верх. Гарретт представляет себе ситуации, в которых мы сможем более тщательно экспериментировать с ИИ и при этом держать его в узде. Представьте себе ИИ на изолированном астероиде или карликовой планете, выполняющий наши приказы без доступа к ресурсам, необходимым для того, чтобы выбраться из своей тюрьмы. "Это позволяет создать изолированную среду, в которой можно изучать эффекты продвинутого ИИ без непосредственного риска глобального уничтожения", — пишет Гарретт.

Но вот в чём загвоздка. Развитие ИИ идёт ускоренными темпами, а наши попытки стать многопланетными — нет. «Несоответствие между быстрым развитием ИИ и более медленным прогрессом в космических технологиях разительно», — пишет Гарретт.

Разница в том, что ИИ — вычислительный и информационный объект, а космические путешествия содержат множество физических препятствий, которые мы пока не знаем, как преодолеть. Наша собственная биологическая природа сдерживает космические путешествия, но никакие подобные препятствия не сдерживают ИИ. "В то время как ИИ теоретически может совершенствовать свои возможности практически без физических ограничений, — пишет Гарретт, — космические путешествия должны бороться с энергетическими ограничениями, границами материаловедения и суровыми реалиями космической среды".

Пока что ИИ действует в рамках установленных нами ограничений. Но так может быть не всегда. Мы не знаем, когда ИИ может стать ИСИ и сможет ли вообще. Но мы не можем игнорировать такую возможность. Из этого следуют два взаимосвязанных вывода.

Если Гарретт прав, то человечество должно усерднее работать над космическими путешествиями. Это может показаться надуманным, но думающие люди понимают, что это правда: Земля не будет обитаема вечно. Человечество погибнет здесь по нашей вине или по вине природы, если мы не будем расширять своё присутствие в космосе. Оценка Гаррета в 200 лет лишь подчёркивает важность этого. Но возрождённый акцент на полётах к Луне и Марсу даёт нам некоторую надежду.

Программа ''Артемида'' — это возобновление усилий по созданию присутствия на Луне. После этого мы сможем посетить Марс. Может, это наши первые шаги к становлению многопланетной цивилизации?
Программа ''Артемида'' — это возобновление усилий по созданию присутствия на Луне. После этого мы сможем посетить Марс. Может, это наши первые шаги к становлению многопланетной цивилизации?

Второй вывод касается законодательного регулирования и управления ИИ, что является сложной задачей в мире, где психопаты могут получить контроль над целыми странами и развязать войну. "Хотя заинтересованные стороны, политики, отдельные эксперты и их правительства уже предупреждают о необходимости регулирования, создание нормативной базы, приемлемой для всего мира, будет непростой задачей", — пишет Гарретт. Непростой – это не то слово. Междоусобные разборки человечества делают всё это ещё менее управляемым. Кроме того, как бы быстро мы ни разрабатывали руководящие принципы, ИСИ может меняться ещё быстрее.

"Без практического регулирования есть все основания полагать, что ИИ может представлять собой серьёзную угрозу для будущего развития не только нашей технической цивилизации, но и всех технических цивилизаций", — пишет Гарретт.

Это Генеральная Ассамблея Организации Объединённых Наций. Достаточно ли мы едины, чтобы сдержать ИИ?
Это Генеральная Ассамблея Организации Объединённых Наций. Достаточно ли мы едины, чтобы сдержать ИИ?

Многие надежды и мечты человечества кристаллизуются вокруг парадокса Ферми и Великого фильтра. Существуют ли другие цивилизации? Находимся ли мы в той же ситуации, что и другие разумные существа? Покинет ли наш вид Землю? Сможем ли мы справиться с многочисленными трудностями, которые стоят перед нами? Сможем ли мы выжить?

Если да, то всё может свестись к тому, что может показаться скучным и будничным: к обсуждению законодательства.

"Сохранение разумной и сознательной жизни во Вселенной может зависеть от своевременного и эффективного применения таких международных мер регулирования и технологических усилий", — пишет Гарретт.

Источник

  • 07.09.23 16:24 CherryTeam

    Cherry Team atlyginimų skaičiavimo programa yra labai naudingas įrankis įmonėms, kai reikia efektyviai valdyti ir skaičiuoti darbuotojų atlyginimus. Ši programinė įranga, turinti išsamias funkcijas ir patogią naudotojo sąsają, suteikia daug privalumų, kurie padeda supaprastinti darbo užmokesčio skaičiavimo procesus ir pagerinti finansų valdymą. Štai keletas pagrindinių priežasčių, kodėl Cherry Team atlyginimų skaičiavimo programa yra naudinga įmonėms: Automatizuoti ir tikslūs skaičiavimai: Atlyginimų skaičiavimai rankiniu būdu gali būti klaidingi ir reikalauti daug laiko. Programinė įranga Cherry Team automatizuoja visą atlyginimų skaičiavimo procesą, todėl nebereikia atlikti skaičiavimų rankiniu būdu ir sumažėja klaidų rizika. Tiksliai apskaičiuodama atlyginimus, įskaitant tokius veiksnius, kaip pagrindinis atlyginimas, viršvalandžiai, premijos, išskaitos ir mokesčiai, programa užtikrina tikslius ir be klaidų darbo užmokesčio skaičiavimo rezultatus. Sutaupoma laiko ir išlaidų: Darbo užmokesčio valdymas gali būti daug darbo jėgos reikalaujanti užduotis, reikalaujanti daug laiko ir išteklių. Programa Cherry Team supaprastina ir pagreitina darbo užmokesčio skaičiavimo procesą, nes automatizuoja skaičiavimus, generuoja darbo užmokesčio žiniaraščius ir tvarko išskaičiuojamus mokesčius. Šis automatizavimas padeda įmonėms sutaupyti daug laiko ir pastangų, todėl žmogiškųjų išteklių ir finansų komandos gali sutelkti dėmesį į strategiškai svarbesnę veiklą. Be to, racionalizuodamos darbo užmokesčio operacijas, įmonės gali sumažinti administracines išlaidas, susijusias su rankiniu darbo užmokesčio tvarkymu. Mokesčių ir darbo teisės aktų laikymasis: Įmonėms labai svarbu laikytis mokesčių ir darbo teisės aktų, kad išvengtų baudų ir teisinių problemų. Programinė įranga Cherry Team seka besikeičiančius mokesčių įstatymus ir darbo reglamentus, užtikrindama tikslius skaičiavimus ir teisinių reikalavimų laikymąsi. Programa gali dirbti su sudėtingais mokesčių scenarijais, pavyzdžiui, keliomis mokesčių grupėmis ir įvairių rūšių atskaitymais, todėl užtikrina atitiktį reikalavimams ir kartu sumažina klaidų riziką. Ataskaitų rengimas ir analizė: Programa Cherry Team siūlo patikimas ataskaitų teikimo ir analizės galimybes, suteikiančias įmonėms vertingų įžvalgų apie darbo užmokesčio duomenis. Ji gali generuoti ataskaitas apie įvairius aspektus, pavyzdžiui, darbo užmokesčio paskirstymą, išskaičiuojamus mokesčius ir darbo sąnaudas. Šios ataskaitos leidžia įmonėms analizuoti darbo užmokesčio tendencijas, nustatyti tobulintinas sritis ir priimti pagrįstus finansinius sprendimus. Pasinaudodamos duomenimis pagrįstomis įžvalgomis, įmonės gali optimizuoti savo darbo užmokesčio strategijas ir veiksmingai kontroliuoti išlaidas. Integracija su kitomis sistemomis: Cherry Team programinė įranga dažnai sklandžiai integruojama su kitomis personalo ir apskaitos sistemomis. Tokia integracija leidžia automatiškai perkelti atitinkamus duomenis, pavyzdžiui, informaciją apie darbuotojus ir finansinius įrašus, todėl nebereikia dubliuoti duomenų. Supaprastintas duomenų srautas tarp sistemų padidina bendrą efektyvumą ir sumažina duomenų klaidų ar neatitikimų riziką. Cherry Team atlyginimų apskaičiavimo programa įmonėms teikia didelę naudą - automatiniai ir tikslūs skaičiavimai, laiko ir sąnaudų taupymas, atitiktis mokesčių ir darbo teisės aktų reikalavimams, ataskaitų teikimo ir analizės galimybės bei integracija su kitomis sistemomis. Naudodamos šią programinę įrangą įmonės gali supaprastinti darbo užmokesčio skaičiavimo procesus, užtikrinti tikslumą ir atitiktį reikalavimams, padidinti darbuotojų pasitenkinimą ir gauti vertingų įžvalgų apie savo finansinius duomenis. Programa Cherry Team pasirodo esanti nepakeičiamas įrankis įmonėms, siekiančioms efektyviai ir veiksmingai valdyti darbo užmokestį. https://cherryteam.lt/lt/

  • 08.10.23 01:30 davec8080

    The "Shibarium for this confirmed rug pull is a BEP-20 project not related at all to Shibarium, SHIB, BONE or LEASH. The Plot Thickens. Someone posted the actual transactions!!!! https://bscscan.com/tx/0xa846ea0367c89c3f0bbfcc221cceea4c90d8f56ead2eb479d4cee41c75e02c97 It seems the article is true!!!! And it's also FUD. Let me explain. Check this link: https://bscscan.com/token/0x5a752c9fe3520522ea88f37a41c3ddd97c022c2f So there really is a "Shibarium" token. And somebody did a rug pull with it. CONFIRMED. But the "Shibarium" token for this confirmed rug pull is a BEP-20 project not related at all to Shibarium, SHIB, BONE or LEASH.

Для участия в Чате вам необходим бесплатный аккаунт pro-blockchain.com Войти Регистрация
Есть вопросы?
С вами на связи 24/7
Help Icon