söndag 20 december 2015

Intervjuad, två gånger om

Här två aktuella intervjuer med mig, på centrala teman från min bok Here Be Dragons: Science, Technology and the Future of Humanity som utkommer i januari med som redan nu går att beställa från diverse nätbokhandlar:
  • I nummer 7/2015 av Göteborgs universitets tidning GU Journalen finns en artikel rubricerad Ond forskning, som återger (valda brottstycken ur) ett engagerat samtal med bioetikprofessorn Christian Munthe och mig, om nya teknologier på gott och ont. Bilderna ovan är saxade därifrån.
  • I nummer 3/2015 av det socialdemokratiska ungdomsförbundet SSU:s tidskrift Tvärdrag intervjuas jag under rubriken Räkna med robotrevolution.

5 kommentarer:

  1. Ur en artikel med rubriken "Jag, robot" i dagens SvD (20 december):

    "Inom 30 år är maskiner
    intelligentare än människor
    och har tagit makten över
    samhällsutvecklingen. Det menar
    den berömde framtidsforskaren
    Ray Kurzweil – som ändå ser
    ofantligt ljust på framtiden."

    Jag har tyvärr ingen länk till artikeln.

    SvaraRadera
    Svar
    1. Ur registret till Here Be Dragons:

      Kurzweil, Ray 44, 64, 74-77, 79, 81, 97, 105, 130-135, 137-138.

      Radera
  2. "-Egentligen behöver vi inte ta ställning till om de [robotarna] är medvetna eller inte, inflikar OH. Jag behandlar inte dig som en medveten varelse på grund av någonting som jag vet om din anatomi. Om robotarna beter sig mänskligt har vi kanske moraliska skyldigheter gentemot dem oavsett hur medvetna vi tror att de är."

    Hur kan man se på detta? Vilka moraliska skyldigheter har vi gentemot objekt som beter sig mänskligt, och varför?

    "-Det finns också en framtidsvision om att använda robotar för att fatta svåra beslut. [...] Därmed skulle de kanske på några sekunder kunna fatta rättvisa beslut [...]" (Christian Munthe)

    Jag har svårt att se hur robotar skulle kunna lösa problemet med att fatta rättvisa beslut. Vad som anses rättvist beror väl på vad vi har för värderingar?

    Jag har inte lagt ner bråkdelen av tiden som du har på att fundera på denna typen av frågor, så ursäkta om mina kommentarer kanske ter sig naiva och ogenomtänkta. Inser också att det troligtvis skulle ta mycket tid och arbete att ge ett utförligt svar på mina frågor.

    SvaraRadera
    Svar
    1. Det finns inget naivt i dina frågor, Emma! De är svåra och relevanta.

      Jag tror egentligen inte att detta att något "beter sig mänskligt" ger oss moraliska skyldigheter mot det. Men om sådant beteende tyder på att det har medvetande och kapacitet för lidande (och välbefinnande), då börjar tankar om sådana skyldigheter att kännas naturliga.

      Och ja, vad som anses rättvist beror på våra värderingar. Vilka moraliska grundpremisser vi bör programmera in i våra robotar är ett centralt och ofantligt viktigt problem, och svårt. Läs min bok - där jag skisserar problemen, om än inte löser dem...

      Radera
  3. Mer om AI:
    http://www.pressreader.com/sweden/svenska-dagbladet/20160118/281728383521630/TextView

    SvaraRadera