A.I. Rapid Advance bör vara skrämmande om du betalar uppmärksamhet

$config[ads_kvadrat] not found

Rapid Advance

Rapid Advance
Anonim

När det gäller att identifiera existentiella hot som orsakas av tekniska innovationer, kallar den populära fantasin visioner av Terminator, Matrisen, och Jag robot - dystopier som styrs av robotöverlåtare som utnyttjar och utrotar människor mycket. I dessa spekulativa futures leder en kombination av superintelligens och onda avsikter datorer för att förstöra eller enslava mänskligheten.

En ny studie tyder emellertid på att det blir de banala tillämpningarna av A.I. Det kommer att leda till svåra sociala konsekvenser inom de närmaste åren. Rapporten - "Skadlig användning av artificiell intelligens" - författad av 26 forskare och vetenskapsmän från elituniversiteter och tekniskt fokuserade tankar, beskriver sätt som nuvarande A.I. teknik hotar vår fysiska, digitala och politiska säkerhet. För att föra studierna i fokus såg forskargruppen bara på teknik som redan finns eller troligen kommer inom de närmaste fem åren.

Vad studien fann: A.I. system kommer sannolikt att utöka befintliga hot, införa nya och ändra karaktären av dem. Rapportens avhandling är att tekniska framsteg kommer att göra vissa missgärningar enklare och mer värdefulla. Forskarna hävdar att förbättringar i A.I. kommer att minska mängden resurser och expertis som behövs för att utföra vissa cyberattacker, effektivt sänka hinder för brottslighet:

Kostnaderna för attacker kan sänkas av den skalbara användningen av AI-system för att slutföra uppgifter som vanligtvis kräver mänsklig arbetskraft, intelligens och expertis. En naturlig effekt skulle vara att utöka uppsättningen aktörer som kan utföra särskilda attacker, hur mycket de kan utföra dessa attacker och uppsättningen potentiella mål.

Rapporten gör fyra rekommendationer:

1 - Policymakers bör samarbeta nära tekniska forskare för att undersöka, förhindra och mildra potentiella skadliga användningar av AI.

2 - Forskare och ingenjörer inom artificiell intelligens bör ta det dubbla användningsarbetet i sitt arbete på allvar, vilket möjliggör missbrukade överväganden att påverka forskningsprioriteringar och normer och proaktivt nå ut till relevanta aktörer när skadliga ansökningar är förutsebara.

3 - Best practices bör identifieras i forskningsområden med mer mogna metoder för att ta itu med problem med dubbla användningsområden, t.ex. datasäkerhet, och importeras i tillämpliga fall när det gäller AI.

4 - Aktivt sträva efter att utöka intervallet av intressenter och domänexperter som är involverade i diskussioner om dessa utmaningar

Hur A.I. kan göra nuvarande bedrägerier smartare: Ett exempel är att spjutfiskeattacker, där konstnärer utgör ett mål som vän, familjemedlem eller kollega för att få förtroende och extrahera information och pengar, redan är ett hot. Men idag kräver de en betydande utgift av tid, energi och expertis. Som A.I. system ökar i sofistikering, kan viss aktivitet som krävs för en spjutfiskeangrepp, som att samla information om ett mål, automatiseras. En phisher kan då investera betydligt mindre energi i varje grift och rikta sig mot fler människor.

Och om scammers börjar integrera A.I. in i deras online grifter, kan det bli omöjligt att skilja verkligheten från simulering. "Eftersom AI utvecklas vidare kan övertygande chatbots framkalla mänskligt förtroende genom att engagera människor i längre dialoger och kanske slutligen maskera visuellt som en annan person i en videochatt, säger rapporten.

Vi har redan sett konsekvenserna av maskingenererad video i form av Deepfakes. Eftersom dessa tekniker blir mer tillgängliga och användarvänliga bekymrar forskarna att dåliga aktörer kommer att sprida tillverkade foton, videoklipp och ljudfiler. Detta kan leda till mycket framgångsrika förlamningskampanjer med politiska konsekvenser.

Utöver tangentbordet: Och potentiell misshandel är inte begränsad till internet. När vi flyttar mot antagandet av autonoma fordon kan hackare införa motsatta exempel för att lura självkörande bilar för att misslycka sin omgivning. "En bild av ett stoppskylt med några pixlar ändrats på specifika sätt, vilka människor lätt skulle känna igen som en bild av ett stoppskylt, kan ändå missificeras som något annat helt av ett AI-system, säger rapporten.

Andra hot inkluderar autonoma dronor med integrerad ansiktsigenkänningssoftware för inriktning, samordnade DOS-attacker som efterliknar mänskligt beteende och automatiserade hyperperspektiva disinformationkampanjer.

Rapporten rekommenderar att forskare överväger potentiella skadliga tillämpningar av A.I. samtidigt som man utvecklar dessa tekniker. Om tillräckliga försvarsåtgärder inte införs, kan vi redan ha tekniken för att förstöra mänskligheten, inga dödrobotar krävs.

$config[ads_kvadrat] not found