Болуы адамзат Жер бетінде тоқтатып, тез арада мүмкін әскери нанотехнология сияқты жай ғана неудавшиеся эксперименттер оларды жүзеге асыруға байланысты: задуманные ретінде бейбіт, олар болуы мүмкін әскери). Бұл жағдайда қорқыту сүйенеді тек екі, бірақ өте қуатты күштер: бақылаусыз самовоспроизведения және экспоненциалдық өсу. Адамзатқа жеткілікті барлығы бір басқарылмайтын нигилистического (немесе мемлекеттік емес ұйымның), қабілетті пайдалана жетістіктерімен осындай нанотехнологиями жою үшін.

Тіпті бір нақты, барабар емес жеке басын куәландыратын мүмкін әлемді күйреуге, егер үйрену создаватьть микроскопиялық машиналар барысында самовоспроизведения жойылмақ барлық маңызды ресурстар, біздің планетаның жылдамдығы орман өртін және оставят өзінен кейін тек қана мүлдем пайдасы жоқтары да болған би-азық-түлік қалдықтары, олар футурологи өте жақсы көреді атай “сұр слизью”.

Белгілі ғалым, теоретик нанотехнология Роберт Фрейтас қолданған “миға шабуыл”, және берді бірнеше нұсқалары, сонымен қатар нанотехнология мүмкін жою ғаламшарды. teshnlogii 0

Ішінде осы нұсқалардың болды деп аталатын “сұр шаң”, “сұр планктон”, “сұр қыналар” және “убийцы биомасса”. “Сұр шаң” қабілетті затмить солнечный свет, “сұр планктон” болуы мүмкін түбінде теңізі және жоюға барлық теңіз экожүйесіне, “сұр қыналар” жойылмақ пайдалы ресурстар бетінде, ал “убийцы биомасса” истребят барлық тірі организмдер. Айтуынша, Фрейтаса, нашар сценарий, осындай “жаһандық экофагии” алады шамамен 20 ай, жеткілікті астам болады өндіру үшін тиімді қорғау. “Қорғау” Фрейтас білдіреді әзірлеуге басқа самореплицирующихся нанороботов қабілетті бұза ішкі жүйесінің “басқыншылардан”. Басқа шарасы болуы мүмкін құру “деп аталатын белсенді қалқан”, дегенмен, көптеген сарапшылар нанотехнология бойынша бір дауыспен айтады мұндай “қалқан” болып бесполезны. Ал, әскери нанотехнология орнатылуы тиіс мораторий, және ол мүлтіксіз сақталуы тиіс.

2. Машиналар ие санамен
Машиналар ие санамен

Қиын бекітуге, бірақ, мүмкін, адамдар бір алады бір күні құруға, машиналар, қоймалар сана. Бірақ олар айтарлықтай обдумать ма? “Дұрыс, бұл тым аяусыз салу толыққанды ми ішіндегі компьютер. Мен бұл адамға, сондай-ақ оның “көшірмелері”. 2003 жылы философ Томас Метцингер қағанның еді деп аты неэтично.

teshnlogii 2 Міне, ол былай дейді бұл жөнінде: “едіңіз, егер біреу келдім сізге мен деді: “Ей, біз генетикалық өзгерту және ақыл есі кем адамның сәби! Ғылыми прогресс бізге балалар белгілі бір танымдық және эмоциялық тапшылығына үшін біз зерттеп, олардың анықтамасы психологиялық дамуы, және бізге шұғыл қажет қаржыландыру үшін осы маңызды және инновациялық түрін зерттеу”. Сіз шығар деп шештік еді, бұл ғана емес, сандырақ емес, қауіпті идея. Үміттенеміз, бірде-бір этика жөніндегі комитет мұны ешқашан мақұлдайды. Алайда кей содан бүгінгі комитеттері этика бойынша көрмейді. Олар көрмейді пайда болуы, алғашқы машиналар, сондай-ақ, бар ең аз жинағы байланыстарды барынша алу үшін, бастауыш саналы тәжірибесі, осындай, ақыл-ойы кем балалардың. Яғни, мұндай машиналар зардап шегеді барлық түрлерінің функционалдық және репрезентативтік тапшылығы. Оған қоса, олар жоқ болады ешқандай саяси лобби — ешқандай өкілдерінің бірде-бір комитетте этика бойынша.”

Одан да сенімді және бейнелі осы мәселе бойынша пікір білдірді футуролог Луи Хельм Футуролог Луи Хельм:

“Ең үздік заттарды компьютерлер болып табылады, онда, сіз мәжбүрлеу, оларды өндіруге миллиондаған операцияларды секундына қатысты, олар обидеться, немесе ол болады скучно. Өйткені жоспарлап отырмыз еңбегін пайдалану жасанды интеллект орнына зияткерлік еңбек, адам, менің ойымша, болар еді аморально запрограммировать оның, сондықтан ол саналы. Жасасын саналы мәні машинаға итеріп оның жұмыс істеу үшін — бұл жай ғана оралу к рабству.”

Стивен Хокинг және деді: жасанды интеллект мүмкін біздің худшей қателігі адамзат тарихындағы. Қарамастан кейбір ғалымдар болса, қажымай-талмай еңбек етуде құру, машиналар, жасанды интеллект, бұл бағыт ғылымда көп қарсыластарының.

teshnlogii 4Они деп санайды енгізу біздің өмірімізге жүйелер, олар әлдеқайда жылдам және ақылды адамдар, отодвинет соңғы екінші жоспары. Адамдар болып отданными мейірімділік жасанды ақыл, ол айналады шешу үшін олардың барлық. Оның үстіне алыс емес, факт, бұл біз жасай аламыз достық жасанды интеллект.

Біз осы проблеманы шешуге болады, олай болмаған жағдайда, құру жасанды интеллект болады безумием таза су.

4. Саяхат уақыт
Құру идеясы “уақыт машинасын” тастап ақыл-ғалымдар. Мысалы, мұндай машина құрылды және біреу рискнул теуіп оған. Өзі серуендеу уақыты бойынша таит үлкен қауіп төндіреді. Бұл туралы айта алады кез келген ғылыми-фантастикалық фильм өзгеруіне байланысты уақытша желілер. Ол бізге ұсыну туралы әлеуетті қауіп-қатерлер осы технология, әсіресе осы отвратительных уақытша парадоксах. Тіпті егер кейбір нысанын кванттық саяхат уақыт әлі мүмкін (соның барысында құрылатын болады жекелеген түрлерін, жаңа уақытша желісі), онда мәдени және технологиялық алмасу арасындағы тым әр түрлі өзінің дамуына өркениеттер ғана аяқталуы мүмкін жақсы.

пктешествие уақыт

5. Құралдар (құрылғылар) оқу үшін ойлар
Перспектива құру аспаптардың немесе машинаның қабілетті “әрі қарай” ой әбден нақты. Әрі оқу оных мүмкін без білім туралы “сыналатын”. Оң ғана болады факт, бұл әскери және өзге де күштік құрылымдар болғанша, өз тәжірибесінде изнурительные жауап алу және тіпті азаптау. Кейбір осы ведомстволар қызметкерлерінің бейім садизму, бұл реалия огорчит. Бірақ, бұл жерде әңгіме ол туралы садистах-силовиках, бұл құрылғылар үшін оқу ойлар айналады қорқынышты қару елдерде авторитарными және кімдер режимдерін,, ох, қалай жақсы көреді емес, сын мен шегін анық болса да, дауыстап айтылды.

Құралдар (құрылғылар) оқу үшін ойлар

Әлбетте, кітап оқу ой жоқ болады мүмкін болғанша адам миы емес, неғұрлым тығыз интеграцияланған веб немесе басқа да байланыс жүйелері. Өткен жылы, мәселен, ғалымдар Нидерланды пайдаланды алынған деректер сканерлеу нәтижесінде ми, және кейбір компьютерлік алгоритмдер анықтау үшін қандай әріптер қарап адам. Бұл ғылыми жетістік шығар намекнул үшінші тұлғаларға берілмейді деп қайта жаңғырту адами ойлар көп ұзамай шығуы мүмкін-соңды болмаған жоғары деңгейі бөлшектеу. Болады, біз көреміз, білеміз, және бұл туралы ойлауға…

6. Құрылғылар үшін “бұзу” ми
Адам ақыл да мүмкін өзінің рұқсатынсыз және келісімінсіз. Может статься, бір күні біздің мозгах пайда чиптер және предполагая, біз аламыз әзірлеу тиімді “шабуылы” брандмауэр, онда біздің ақыл қол жетімді кез келген Интернет-сегменттің. Керемет, бірақ лоюди қазірдің өзінде алғашқы қадамдар осы бағытта. Жақында халықаралық тобы нейробиологов атты эксперимент мүмкіндік берген қатысушыларға жүзеге асыруға “біріктіру разумов” Интернет арқылы. Бір жағынан бұл тамаша. Бірақ екінші жағынан мұндай “техникалық телепатия болуы мүмкін осы жәшігімен, Pandora. Мүмкін, ең үздік және ең қорқынышты) иллюстрация қауіп ұсынылды аниме “Ghost” жарқын қару-жараққа”. Бұл фильмде жасанды интеллект “взламывал” ми адамдар, қабілетті өзгертуге, олардың естеліктері мен ниеттер. Ал енді елестетіп көріңіз, осындай технологиясын қолында ұйымдасқан қылмысқа немесе параноидального.

7. Автономды роботтар-убийцы
Қауіпін автономды машиналар, қызметшілер үшін кісі өлтіру, өте-мөте өзекті болып отыр. Бұл мәселе, айырмашылығы басқа келтірілетін мен осы мақалада бар біздің күндері. Роботизированные машиналар түрлі түрлері, қызметкерлердің өз бетінше анықталған мақсаттар мен оларды жою бар — бұл роботтар-танктер, роботтар-ұшақтар, робот-сүңгуір қайықтар, тіпті роботтар-сарбаздар.

Автономды роботтар-убийцы 1

Міне, бұл осы мәселе бойынша былай дейді футуролог Майкл ЛаТорра: “бізде әзірге жоқ машиналар, көрсететін интеллект, ең болмағанда аздап бейбітшілік пен келісімнің адамдық. Бірақ смертоносным дербес роботам адами интеллект және қажет емес. Роботизированные жауынгерлік машиналар барлық түрлерін табысты құруда қазірдің өзінде бар. Роботтар-танктер, роботтар-ұшақтар, робот-сүңгуір қайықтар, тіпті роботтар-сарбаздар құрылады. Айырмашылығы қашықтықтан басқарылатын ұшақтардың-беспилотников, әскери роботтар дербес айқындай алады мақсаттары мен жоюға, олардың адамның көмегінсіз, өз бетімен шешім қабылдай отырып, оқ атуға. Қауіп технология айқын, ол шеңберінен шықпайтын қауіп оқыс оқиғалар “достық” от барысында робот мүмкін убить солдат орналасқан, онымен бір жағында, немесе тіпті жазықсыз азаматтық. Үлкен қауіп болуға лайық жарыста халықаралық қару-жарақ, өйткені ол итермелеу қандай болса, ұлттар құрылысын бастау автономды жауынгерлік роботтар. Бірнеше цикл жетілдіру пайда жаңа буындағы роботтар, олар жеңе кез келген жүйесі, бақыланатын адам. Ал содан кейін не кездейсоқ (“Кім білген жасанды интеллект мүмкін кенеттен туындауы әскери көз жұмды”?), не злому умыслу (“Біз бір емес, подумали деп хакерлер мүмкін перепрограммировать біздің әскери роботтар қашықтықта”!), адамзат болуы мүмкін толық бағынышты өздерінің жаңа повелителей”.

Қиын оған қарсылық білдіріп.

8. Әскери патогены
Жаман, қазірдің өзінде, бәлкім, өзекті және қорқынышты технологиясы — жасау геномдарын өлімге вирустар. Рей Курцвейл және Билл Джой 2005 жылы жарияладық тізімі геномдарын өлімге вирустар және бүкіл әлем көре рецептер жою.

геномы өлімге вирустар

Әрқашан мүмкіндік бар жеке алынған идиот немесе топ фанатик тұтынушылардың осы ақпаратпен және воссоздадут смертельный вирус нөлден бастап не өзгерістер енгізеді какой-нибудь бар вирус, біреуді өлімге, содан кейін шығару қоршаған ортаға. Болып саналды, мысалы, пресловутый “құс тұмауы” убить алмады жартысын адамдардың жер шарында. Ал кейбіреулер былай деп бұл вирус құрылды жасанды. Әрине, ең бастысы, осындай жағдайларда — білуге жау тұлға және әзірлеу ықтимал контрмеры дейін разразится пандемия. Бірақ әрдайым қауіп бар екенін вирус шегінен шығуы мүмкін зертхана бастайды өлтіруді халық.

9. Виртуалды түрме
Бір кездері адамдар өмір сүре алады ішінде жүздеген немесе тіпті мың жыл. Болады, түрме мен жазалау үшін ұзақ жасаушылар дәстүрлі? Елестетіп көріңізші, адам өмір сүреді 300 жыл, ал судбя оған берді өмір бойы! Немесе, егер ақыл-жасалған болады жүктелуі “виртуалды түрме”? teshnlogii 9

Маман этика бойынша Ребекка Роуч бөлінеді страшными сценарийлері:

“Артықшылықтары түбегейлі өмір сүру ұзақтығының ұлғаюы анық, бірақ олар сондай-ақ пайдаланылуы мүмкін және арттыру үшін суровости жаза. Жағдайда тридцатилетнее қорытынды покажется судьяға тым жұмсақ үкімімен сотталған қылмыскер болуы мүмкін этномәдени бірлестік, ол үйлеседі мәжбүрлеп жалғасы. Нәтижесінде өмір бойы бас бостандығынан айыру дегенді білдіреді мерзімі бірнеше жүз жыл емес, ондаған жылдар. Қоғамға, әрине, қымбатқа шығады қолдау мұндай үкімдер. Бірақ өмірінің ұзақтығын арттыру қол жетімді барлық, бұл шығындар болуы мүмкін теңгерілген өсуімен өндіргіш күштер.

Бар және тағы бір нұсқа. Ақыл сотталған қылмыскерді жүктеледі компьютер, жұмыс істеу жылдамдығы осы ой еріксіз өседі, миллион есе, сондықтан 1000 жыл бас бостандығынан айыру оңай умещаются 8,5 сағат. Мұндай көзқарас әлбетте, оңалып кетер салық төлеушілерге қайда қарағанда арзан мәжбүрлеп өмір сүру ұзақтығын ұлғайту қылмыскер”.

От тюрьмы және сумы — не зарекайся. Ол кезде жақсы еді, осы қорқынышты фильмдер емес, шындыққа айналды. Ешқашан.

10. Адская инженерия
Адская инженерлік қызмет

Кейбір футурологи жасайды болжамдар үшін “райской” инженерлік қызметтің түсініледі озық технологияларды пайдалану, атап айтқанда, жүктеуді сананың виртуалды шындық құру үшін Жер жаннаты. Бірақ коль скоро осылай жасауға болады рай, яғни, жасауға болады және ад. Және бұл перспектива әсіресе, толғандырады, предполагая, болашақта адам өмірі өте ұзақ, және бұл өмір үшін көптеген мүмкіндіктер келтіру физикалық және психологиялық азап. Шын мәнінде, бұл бірі нашар нәрселер орын алуы мүмкін. Плюс пайда тағы бір себебі тыйым салу үшін әзірлеу жасанды интеллект пайда болуы проблемалары “Василиска Роко” (“Василиск Роко” — богоподобная және өте қауіпті нысаны жасанды интеллект).