Tiedustelulennokeille ja miehittämättömät ajoneuvot aseena: miksi meidän tarvitse pelätä hakkereita
Teknologian / / December 19, 2019
Kukaan ei kiistä, etteikö tekoäly voi laittaa elämäämme uudelle tasolle. AI pystyy ratkaisemaan monia ongelmia, jotka eivät kuulu valtaa ihmisen.
Kuitenkin monet uskovat, että superintelligence haluavat tuhota meidät, kuten Skynet tai alkavat johtaa kokeita ihmisiä kuin GLaDOS pelistä Portal. Ironista on, että tehdä tekoälyä voi vain ihmiset hyvää tai pahaa.
Tutkijat Yalen, Oxfordin, Cambridgen ja yhtiö lähetetty OpenAI raportti väärinkäytöstä tekoälyä. Siinä sanotaan, että todellinen vaara on peräisin hakkereilta. Avulla haitallisen koodin, he voivat häiritä automaattisen järjestelmiä Lintuinfluenssaa.
Tutkijat pelkäävät, että teknologia luotu hyviä aikomuksia, käytetään haittaa. Esimerkiksi valvontaa voidaan soveltaa paitsi kiinni terroristeja, vaan myös vakoilla tavallisiin kansalaisiin. Tutkijat huolestuttavaa kaupallisia tiedustelulennokeille, joka toimittaa ruokaa. Ne on helppo siepata ja laittaa jotain räjähtävä.
Toinen skenaario on tuhoava käyttö AI -
miehittämättömät ajoneuvot. Riittää vaihtaa muutaman rivin koodia, ja kone alkaa sivuuttaa turvallisuussääntöjä.Tutkijat uskovat, että uhka voi olla digitaalinen, fyysisiä ja poliittisia.
- Tekoäly on jo käytössä tutkia haavoittuvuuksia eri ohjelmakoodia. Tulevaisuudessa hakkerit voivat luoda sellainen botti, joka ohittaa mitään suojaa.
- Jossa AI henkilö voi automatisoida monia prosesseja: esimerkiksi, ohjata parvi junnauksesta, tai ryhmä ajoneuvoja.
- Teknologioiden kuten DeepFake, voivat vaikuttaa poliittiseen elämään valtion, levittää vääriä tietoja maailman johtajat kautta Botti.
Nämä pelottavan esimerkkejä on vain hypoteesi. Tutkimuksen tekijät eivät tarjoa täydellistä hylkäämistä tekniikkaa. Sen sijaan he uskovat, että hallitusten ja suurten yritysten pitäisi huolehtia turvallisuudesta, kun taas teollisuudessa tekoäly lapsenkengissä.
Poliitikkojen pitäisi oppia tekniikan ja työskennellä yhdessä alan asiantuntijoita, tehokkaasti säädellä perustamista ja tekoälyn käytöstä.
Kehittäjät puolestaan olisi arvioitava vaarallisuus korkean teknologian, ennakoida ja ennaltaehkäistä pahimpia seurauksia näiden maailman johtajia. Mietinnössä vaaditaan AI kehittäjille: tiimin kanssa tietoturva-asiantuntijat muilla aloilla selvittää voit käyttää periaatteita, jotka turvallisuuden takaamiseksi näiden teknologioiden suojelemiseksi keinotekoisten älykkyyttä.
Koko raportti kuvaa ongelmaa tarkemmin, mutta se, että AI - voimakas työkalu. Kaikki sidosryhmät opittava uutta teknologiaa ja varmista, että se ei käytetä rikollisiin tarkoituksiin.