2024 Autor: Adelina Croftoon | [email protected]. E modifikuara e fundit: 2023-12-17 02:18
Kompjuterët super inteligjentë ose robotët që kërcënojnë ekzistencën e racës njerëzore janë një komplot i preferuar i trillimeve shkencore. Në realitet, sipas shkencëtarëve, një skenar i tillë i fundit të botës mund të parandalohet vetëm duke krijuar një "burg" virtual për përmbajtjen e inteligjencës artificiale (AI). Dhe kjo duhet bërë para se të mësojë të jetë i vetëdijshëm dhe të përmirësohet për veten..
Nëse e lini këtë xhin nga shishja, atëherë nga një orakull që zgjidh problemet tona, mund të kthehet në një kërcënim apokaliptik, thotë Roman Yampolsky, një shkencëtar në Universitetin e Louisville, Kentucky, i cili punon në fushën e shkencës kompjuterike. Kushtet në të cilat AI do të përmbahet duhet të planifikohen me kujdes në mënyrë që të mos çlirohet përmes kërcënimeve, ryshfetit, tundimit ose hakimit të kompjuterit.
"Ai mund të shpikë shumë mënyra për të ndikuar, duke krijuar një kombinim kompleks socio-inxhinierik dhe duke përdorur komponentët ekzistues të harduerit për qëllime që as nuk mund t'i imagjinojmë," beson Yampolsky. - Softuer i tillë ka mundësi të pakufizuara për infektimin e kompjuterëve dhe rrjeteve. AI mund të gjejë mënyra për të ndikuar në psikikën njerëzore, ryshfetin ose shantazhimin e njerëzve që janë në kontakt me të ".
Shfaqja e një fushe të re të kërkimit shkencor që merret me problemin e krijimit të një "burgu" për inteligjencën artificiale ka përparësi shtesë. Këto studime janë shumë të dobishme për përmirësimin e sigurisë kompjuterike dhe kriptografisë, është i sigurt Yampolsky. Propozimet e tij u detajuan në numrin e Marsit të revistës akademike të Studimeve të Ndërgjegjes.
Si të krijoni një kurth për Skynet
Për të filluar, mund të mbyllni inteligjencën artificiale brenda një "makine virtuale". Lëreni të funksionojë brenda një sistemi normal operativ - kufizimi i qasjes së AI në softuerin dhe harduerin e kompjuterit pritës do ta bëjë atë shumë më të padëmshëm. Në çdo rast, inteligjenca inteligjente nuk do të jetë në gjendje të dërgojë mesazhe sekrete te mbështetësit e saj njerëzorë, duke mposhtur kodin Morse me tifozët e ftohjes.
Vendosja e inteligjencës artificiale në një kompjuter pa qasje në internet është një mënyrë e mirë për të penguar planet tinëzare të AI për të mbrojtur Tokën nga ju dhe unë. Në rast të ndonjë dështimi tjetër, studiuesit gjithmonë mund të ngadalësojnë procesin e mendimit të AI duke ngadalësuar shpejtësinë e përpunimit të kompjuterit, duke shtypur rregullisht butonin e rivendosjes ose duke shkëputur AI nga furnizimi me energji.
Këto masa sigurie janë krijuar për t'u marrë me viruset kompjuterike shumë inteligjente dhe të rrezikshme, por sa efektive dalin në fakt është hamendja e kujtdo.
Catch-22 (romani i shkrimtarit amerikan J. Heller; përafërsisht. Mixednews) është se ne nuk mund të bëjmë testime në shkallë të plotë të ideve tona derisa të përfundojë zhvillimi i AI. Por, për ta bërë AI të sigurt, është e nevojshme të zhvillojmë një sërë masash të përshtatshme, thotë Yampolsky. "Opsioni më i mirë është të vendosni kufizime në përdorimin e sistemeve të AI dhe pastaj, sipas nevojës, t'i ndryshoni ato kufizime në përputhje me aftësitë në rritje të AI."
Asnjëherë mos vendosni një roje sigurie njerëzore në makinë
Gjatë një bisede në dukje të pafajshme me një roje sigurie, asgjë nuk do ta pengojë UA -në të përdorë teknika psikologjike të tilla si miqësia ose shantazhi. Një person mund të ryshfet duke i premtuar shëndet të përsosur, pavdekësi, apo edhe një premtim për kthimin e të afërmve dhe miqve nga bota tjetër. Ose arrini ndonjë gjë me kërcënime.
Mënyra më e sigurt për të komunikuar me AI është që ta bëni atë, kur zgjidhni një problem specifik shkencor ose teknik, të zgjidhni një përgjigje nga shumë opsione në dispozicion, shpjegon Yampolsky. Kjo do të ndihmojë në mbajtjen e orakullit super të zgjuar në një zinxhir të shkurtër.
Shumë studiues besojnë se, pavarësisht nga të gjitha masat paraprake, mbajtja e inteligjencës inteligjente nën kyç nuk do të jetë kurrë e suksesshme. Eksperimenti i fundit i Eliezer Yudkowsky, një studiues në Institutin e Singularitetit mbi krijimin e Inteligjencës Artificiale, tregoi se edhe inteligjenca e nivelit njerëzor mund të mashtrojë një person dhe të "shpëtojë" nga burgimi.
Sidoqoftë, Yampolsky këmbëngul në mbajtjen e AI në izolim të rreptë - është akoma më mirë sesa të heqësh dorë dhe t'i japësh liri të plotë. Por nëse zhvillimi i AI arrin pikën ku mund të manipulojë një person duke përdorur nënndërgjegjeshëm (duke parashikuar të ardhmen), telepatinë ose telekinesis, pasojat do të jenë të paparashikueshme.
"Nëse një UA e tillë do të përmirësohet vetë dhe do të arrijë një nivel që tejkalon ndjeshëm aftësitë e inteligjencës njerëzore, pasojat as nuk mund të imagjinohen," paralajmëron Yampolsky.
Recommended:
UFO -t Duhet Të Fajësohen Për Vdekjen E Presidentit Të Polonisë?
Sot, ka shumë versione të vdekjes së Tu-154 në bord me Presidentin e Polonisë Lech Kaczynski dhe shumicën e elitës politike të këtij vendi. Por ekziston një version tjetër, i cili po diskutohet ekskluzivisht midis specialistëve. Pse - do ta kuptoni më tej. Siç e dini, gjatë afrimit të uljes, avioni devijoi nga brezi kryesor me të paktën 150 metra. Disa nga ata që ishin në aeroport pretendojnë se pikërisht në momentin kur aeroplani filloi të binte, ata vunë re në qiell
Dhjetë Përparime Të Rëndësishme Por Të Frikshme Në Inteligjencën Artificiale
Stephen Hawking, Bill Gates dhe Elon Musk të gjithë kanë diçka të përbashkët, dhe kjo nuk është pasuri apo inteligjencë. Të gjithë ata kanë frikë nga apokalipsi që përfshin AI (inteligjencën artificiale). Ky është një skenar hipotetik në të cilin inteligjenca artificiale bëhet forma mbizotëruese e jetës në Tokë. Mund të jetë kryengritja e makinave që mendojnë se janë perëndi ose, edhe më keq, vendosin të shkatërrojnë njerëzimin dhe të pretendojnë Tokën si të tyren. Por nëse apokalipsi do të ndodhë me AI është një pyetje e madhe. Çfarë nxit
Eksodi: Njerëzimi Duhet Të Eksplorojë Marsin Për Të Mbijetuar
Elon Musk pohon: nëse njerëzimi është i interesuar për mbijetesën e tij, atëherë ai duhet të dërgojë një milion tokësorë në Mars. "Hajde asaj, kjo Tokë! - më dha papritur Elon Musk me një buzëqeshje. "Kush kujdeset për të?" Ne u ulëm në zyrën e tij të vogël, në cep të një zyre të bollshme të vendosur në selinë e SpaceX në Los Angeles. Ishte një ditë me diell, e enjte, një nga ato ditë kur Musk mund të gjendet në SpaceX. Por Eloni ishte dinak, ironik, - në fund të fundit, ishte ai që ishte më shumë se të gjithë
Ne Duhet Të Mendojmë Tani Se Si Të Sigurojmë Inteligjencën Artificiale
Stephen Hawking vazhdon "kryqëzatën" kundër inteligjencës artificiale (AI). Gjatë fushatës së shumëpritur Ask Me Everything on Reddit, ai shkroi se puna për zhvillimin e një protokolli të sigurisë AI duhet të bëhet tani, jo në të ardhmen e largët. "Qëllimi ynë nuk duhet të jetë krijimi i inteligjencës artificiale abstrakte, por krijimi i inteligjencës së dobishme," shkroi fizikani i famshëm, "do të duhen dekada për të kuptuar se si ta bëjmë këtë, kështu që po
Stephen Hawking E Quan Inteligjencën Artificiale Gabimin Më Të Madh Në Histori
Fizikani i famshëm britanik Stephen Hawking, në një artikull të frymëzuar nga filmi fantastiko -shkencor Transcendence, me Johnny Depp, ka thënë se nënvlerësimi i kërcënimit nga inteligjenca artificiale mund të jetë gabimi më i madh në historinë njerëzore. Në një artikull të bashkë-shkruar me profesorin e shkencave kompjuterike Stuart Russell të Universitetit të Kalifornisë në Berkeley dhe profesorët e fizikës Max Tegmark dhe Frank Wilczek nga Massachusetts