Konstgjord intelligens behöver öppenhet så att människor kan hålla det på konto, har en forskare hävdat. Virginia Dignum, docent vid Delft University of Technology, berättade för en publik på New York University på fredag att om vi inte förstår varför maskiner fungerar som de gör kommer vi inte att kunna bedöma sina beslut.
Dignum citerade en berättelse av David Berreby, en vetenskapskunskap och forskare, som publicerades i Psykologi idag: "Bevis föreslår att när människor arbetar med maskiner känner de sig mindre av byrån än vad de gör när de arbetar ensamma eller med andra människor."
"Vagnsproblemet", Dignum förklarat, är ett område där människor kan lägga blind tro på en maskin för att välja rätt resultat. Frågan är om man ska byta spaken på ett hypotetiskt spårvagn så att det dödar en person istället för fem. Folk förväntar sig att maskiner ska lösa problemet på det mest rationella sättet. Det kan dock inte alltid vara fallet, och öppenhet skulle hjälpa till att förklara hur maskinen kom till sitt beslut.
"Det är inte bara en mycket djup neurala nätverkskedja av händelser som ingen kan förstå, men att göra de förklaringarna på ett sätt som människor kan förstå," sa hon.
A.I. Det som gör att arbetet är klart är ett område som DARPA har undersökt. Byrån publicerade ett meddelande i augusti att det letade efter lag som var intresserade av förklarliga A.I. projekt, känt som XAI. Dessa system hjälper forskare att förstå varför en A.I. fattade beslutet att det gjorde det, vilket gav mer utrymme att bestämma vad man skulle göra med den resulterande informationen istället för att blint lita på maskinen.
Med maskininlärning noterade Dignum att insynen är viktigare än någonsin. "Vi kan inte förvänta oss att systemen, och särskilt maskininlärningsmaskinerna, lär sig, och att känna till det med en gång", sa hon."Vi förväntar oss inte att våra förare, vid körning, ska vara fullt förstådda av trafiklagen. I många länder använder de dessa "L" -plattor för att visa: "Jag lär mig, ursäkta mig för de misstag jag skulle kunna göra." "Att titta på AI, förstå hur det kommer till vissa beslut och agera baserat på det kommer att vara avgörande för att stoppmaskiner som fortfarande lär sig från att göra dåliga beslut.
Expert säger Hyperloop är fel för leverans: "Varför behöver vi flytta last vid 500 mph?"
Hyperloop, den höghastighetståg, lågkolibrerade, nära vakuum-förseglade röret som rymdes av SpaceX och Tesla VD Elon Musk, börjar ta form. Trots att den futuristiska resolösningen har tydlig folkrörande potential är dess användbarhet inom lasttransport mycket svårare. En av Hyperloop bästa och mest talade om ...
Fords "Nightonomy" visar självkörande bilar behöver bara LIDAR för att se på natten
Körning i mörkret verkar som något autonomt fordon ska kunna göra. Tekniken är trots allt beroende av algoritmer, kameror och sensorer, inte ljuskänsliga ögon. Ändå har autonoma bilföretag inte främjat sin produkts efterhandstjänster, delvis för att tekniken bara inte har b ...
Varför museer behöver gå digitalt för att förstå det förflutna, säger paleontologen
Många museer rymmer miljontals miljoner naturhistoriska prover som ligger gömda från allmänheten. Forskare arbetar emellertid med att föra dessa "mörka data" på webben för att sammanfatta en rikare förståelse av tidigare miljöförändringar.