Nature vaste enquête: En cas de problème de rencontre de tramway AI, il sauvera qui?

Ji-won nouveau rapport

« Toi et moi vieille mère est tombée dans l'eau en même temps, vous devez d'abord sauver Qui? »

Combien de héros arc en hommage ce siècle les problèmes des voies afin, puis laissez le pilote automatique si en voiture discrétion programme Les résultats, comment il?

Revoyons d'abord le récent pilote automatique épouvantable accident de la circulation :

  • 18 mars 2018, Uber conduire automatiquement une accident de voiture la façon dont les gens femme, la femme a été tuée;

  • 10 janvier 2018, Argo AI Ford investissements accidents de la circulation, entraînant deux personnes à l'intérieur de la voiture ont été blessés;

  • 7 mai 2016, Tesla Model S est entré en collision avec la remorque, le conducteur, a été tué;

  • 20 janvier 2016, Beijing, Hong Kong et Macao à haute vitesse, voiture Tesla a frappé le camion, le conducteur a été tué;

  • ......

Avec la popularité du pilote automatique, les gens apprécient la commodité et l'efficacité, mais ils doivent aussi tenir compte du pilote automatique des problèmes de sécurité. Cette société est sans aucun doute un fardeau supplémentaire: la voiture est programmée, lorsque dans des accidents de la circulation, Que ont la capacité de faire la priorité sauver la vie .

Dans ce cas, le conducteur instinct humain certainement de choisir qui sauver, mais pour l'algorithme, cette questions à choix multiples devrait être à l'avance la réponse. Ensuite, les constructeurs automobiles et le gouvernement fera un choix il? Enregistrer les personnes âgées ou les enfants? La plupart des gens économisent encore quelques personnes très spéciales?

Aujourd'hui, MIT a publié un document traite de la perception du public de ces questions, et a analysé les données test en ligne appelé le 2016 lancement de la machine morale (machines d'éthique).

L'expérience morale machine

Il demande à l'utilisateur de faire une série de décisions morales pour accident de voiture virtuelle, semblable à la célèbre « conundrum tramway (problème de chariot) ».

« Problème chariot (Trolley problème) » est l'un des plus célèbres pensée champ d'expérimentation de l'éthique, son contenu est à peu près: un fou à cinq personnes innocentes liées au tramway. Un tramway emballement venir vers eux, et aller après le laminage moment pour eux. Heureusement, vous pouvez tirer un levier, de sorte que le tram sur une autre piste. Cependant, le problème est que le fou de l'autre tramway est également lié à une personne. Compte tenu de la situation ci-dessus, vous devez tirer la tige?

Les chercheurs de neuf facteurs différents ont été testés, y compris l'utilisateur est plus enclin à frapper un homme ou une femme, la plupart des gens choisissent encore sauver quelques personnes, à sacrifier jeunes et vieux, les piétons ordinaires ou les piétons traversent la rue, ou même dans faire un choix entre une position de bas et de haut les gens de statut.

Exemple d'une scène dans la machine morale: L'utilisateur doit frapper les passants ou un obstacle?

Des millions d'utilisateurs de 233 pays et régions ont participé au jeu-questionnaire, mis au point un total de 40 millions de décisions morales. Sur la base de ces données, les auteurs de l'étude a révélé Une partie de la préférence globale plus cohérente (Préférence globale): les humains sont plus enclins à épargner plutôt que des animaux, d'économiser les frais de la minorité majoritaire, la priorité Save the Children.

Par conséquent, ils croient, quand légiférer pour les véhicules autonomes, ces facteurs devraient être considérés comme les responsables politiques « pierre angulaire ». Mais les auteurs ont également souligné que les résultats de cette étude ne sont nullement la décision de l'algorithme de modèle.

Collaborateurs papier Edmond Awad a déclaré: « Nous essayons de montrer que l'éthique descriptive, qui est, les préférences des gens dans la prise de décision morale, cependant, si en matière de normes d'éthique, ce qu'il faut faire de choix, ce qui devrait être décidé par des experts ".

Les données montrent également, Il y avait des différences significatives dans les différents pays de préférences morales . Ceci est lié à de nombreux facteurs, y compris l'emplacement (par exemple, la différence entre les pays européens et asiatiques) et la culture (de l'individualisme social et de la société collectiviste).

Il est à noter que, bien que la voie à suivre ces décisions doivent exécuter les travaux connexes à un moment donné à l'avenir, mais la technologie de pilote automatique est encore long. L'autonomie est encore à ses débuts, les véhicules autonomes est encore un prototype, pas un produit. Les experts ont également dit que même si on ne sait pas que ces décisions seront combinées à l'avenir ce genre de programmation avec le véhicule, mais apparemment doivent encore mener une consultation publique et le débat.

Patrick Lin, directeur de l'éthique + équipe émergente California Science Institute of Technology, a déclaré: « En raison des véhicules autonomes est la première intégration à grande échelle des produits AI de la société, donc une série de choses en termes de ce qui est arrivé le pilote automatique pour tous les autres l'intelligence artificielle et la robotique le ton ".

Comment les influences culturelles préférences morales?

Moral machine passe en revue les résultats montrent En ce qui concerne ces dilemmes éthiques, il y a quelques principes communs . Mais les auteurs du document ont également constaté des différences dans les préférences, ces différences suivent une certaine classification. Aucune de ces différences est contraire aux principes fondamentaux (tels que le respect du principe de la minorité majoritaire), mais ils diffèrent dans une certaine mesure.

Les chercheurs ont constaté que dans certains pays d'Asie et du Moyen-Orient, comme la Chine, le Japon et l'Arabie saoudite, « la préservation des jeunes plutôt que les personnes âgées, » la tendance « pas si évidente. » Comparativement aux personnes en provenance d'Europe et d'Amérique du Nord, ces pays sont relativement moins préoccupés par la préservation des individus « fortunés ».

Les auteurs de l'étude estiment que cela peut être dû à des différences entre l'individualisme et la culture de la culture collectiviste. Le premier souligne la valeur de chaque personne en tant qu'individu unique, « plus enclins à conserver un plus grand nombre de personnes. » Au contraire, en termes de préservation des jeunes préférences plus faibles peuvent être le résultat de la culture collectiviste « , a souligné l'aîné de la communauté respecter les membres ".

L'auteur estime que ces différences indiquent que les « proximité géographique et culturelle pourrait rendre les gens de différents pays ont les mêmes préférences en matière d'éthique de la machine. »

Cependant, il existe d'autres facteurs associés à ces différences ne sont pas nécessairement sur le plan géographique. Par exemple, un pays moins riche, son par le produit intérieur brut (PIB) est faible, les institutions civiles faibles, sont plus susceptibles de frapper les gens indisciplinés traverser la rue à la place de l'homme jaywalking, « sans doute parce qu'ils suivent les règles les moins expérimentés, les pénalités pour ne pas respecter les règles est également plus léger ".

Cependant, les auteurs soulignent, Moral résultat machine est pas une évaluation finale des préférences morales des différents pays .

Tout d'abord, ce test est facultative, les participants sont des personnes relativement techniques pour comprendre. La structure du test élimine également les différences subtiles. Les participants ne sont que deux choix clair: tuer ces personnes, ou de tuer ces personnes. Dans la vraie vie, ces décisions sont probabilistes, tout le monde choisira de faire des résultats à différents degrés de gravité. ( « Si je fais le camion fait une embardée, il est probable qu'un coup piéton à faible vitesse », etc.)

Néanmoins, les experts disent que cela ne signifie pas un tel test n'a pas d'importance. Patrick Lin a déclaré que la nature de l'homme fait de ces difficultés est « caractéristique, pas bug », car ils éliminent le « chaos de variables, afin de se concentrer sur des variables spécifiques d'intérêt pour nous. »

Il a ajouté que même si la voiture ne fait pas de choix entre frapper régulièrement un ou plusieurs objets X Y, ils doivent encore peser les décisions pertinentes, telles que de rester en dehors de ces choses et plus d'espace large. Ceci est encore « une question morale fondamentale », a déclaré Lin, « donc nous devons maintenant discuter de cette question. »

Un échange de trafic de la caméra via Google conduite automatiquement une grille de voiture. Photo de Sean O'Kane / The Verge

Le changement de la loi sur l'éthique

Mais sur ces questions, nous avons besoin de légiférer la distance? Quand avez-vous commencé l'entreprise décision codée morale dans la voiture automatique d'entraînement ?

La réponse à la deuxième question est que maintenant Vous avez déjà . Cela est vrai, parce que chaque algorithme prendre des décisions, dont certaines auront des conséquences sur l'éthique. Toutefois, le point de vue plus spécifique, même si les sociétés liées réticents à parler publiquement de leurs algorithmes, sont également susceptibles préférences pour coder une préférence rugueux.

Par exemple, dès 2014, le fondateur de Google X est Sebastian Thrun dit que prototype véhicules autonomes de la société sélectionnera deux objets ont frappé le plus petit en cas de collision. Dans anti-énergie 2016, Chris Urmson Google dit véhicule sans pilote de la compagnie « essayer d'éviter de heurter non protégés usagers de la route: les cyclistes et les piétons. » La même année, il a été rapporté que Mercedes - Benz, un gestionnaire, dit sera donné véhicules autonomes sécurité des passagers accident de la priorité de l'entreprise, mais la compagnie a nié plus tard.

La société de ne pas divulguer ces décisions sont compréhensibles. D'une part, le système de pilote automatique n'a pas été assez compliqué, ne peut pas distinguer entre jeunes et vieux. Les algorithmes et la plupart des capteurs avancés peuvent distinguer différentes choses évidentes, comme les écureuils et les cyclistes, mais ils ne peuvent pas distinguer entre plus subtil que cette chose. En outre, la société a déclaré que peu importe qui ils donnent la priorité à la vie - humaine ou animale, les passagers ou les piétons - tous font certaines personnes se sentent mal à l'aise décision. Voilà pourquoi ce sont le dilemme moral: Il n'y a pas de réponse simple.

Centre for European Policy Studies (Centre for European Policy Studies), Senior Fellow Andrea Renda a déclaré que la plupart du secteur privé sur ces questions fait. « Le secteur privé est de prendre des mesures, mais le gouvernement peut constater que cela ne suffit pas », dit-Renda. En Europe, l'UE élabore actuellement un code d'éthique, et peut-être par « la législation de commandement et de contrôle, ou par la certification et la surveillance conjointe » pour effectuer ces lignes directrices. Aux États-Unis, le Congrès a les principes réglementaires potentiels ont annoncé une réglementation des deux partis développés, mais fédéraux peuvent être lents, on ne sait pas si les législateurs veulent se plonger dans cet accident de bourbier préférences morales.

Renda a averti que bien que les besoins publics de participer à ces débats, mais " En se fondant uniquement sur la consultation ascendante serait extrêmement dangereux . « Il dit que les gouvernements et les experts doivent faire un choix, de réaffirmer les droits de l'homme.

Mais en Allemagne, nous avons vu de nouveaux problèmes. L'Allemagne est le seul pays à proposer les directives officielles sur les choix éthiques des véhicules autonomes. Les législateurs ont essayé d'analyser le tram à la question délicate, en soulignant que la vie de tous devrait être l'égalité de traitement, aucune distinction fondée sur des caractéristiques personnelles telles que l'âge ou le sexe, devrait être interdite.

Mais les chercheurs du MIT ont souligné, si cette option est mise en uvre, le biais est contraire au public ont tendance à épargner plus que les jeunes personnes âgées. Ils demanderont si le gouvernement a introduit cette politique, la façon dont il traitera cette opposition collective. « Véhicules autonomes lorsque les enfants choisissent de sacrifier ce jour-là dans les dilemmes moraux, ce boycott va inévitablement se produire. »

Awad a déclaré que ce conflit était « inévitable », mais doit faire partie de ce processus. « Il est important de prendre ces décisions deviennent transparentes », at-il dit, « d'expliquer publiquement ce qu'ils font. Si tout cela est arrivé dans les coulisses, les gens disent simplement« Nous croyons, je pense que ce n'est pas acceptable tout le monde doit être impliqué dans ces décisions. "

Lien original:

https://www.theverge.com/2018/10/24/18013392/self-driving-car-ethics-dilemma-mit-study-moral-machine-results

New Ji-won AI MONDE 2018

Intelligence artificielle Sommet mondial commentaire complet

New Ji-won le 20 Septembre a eu lieu l'intelligence artificielle AI MONDE 2018 Sommet mondial à Beijing National Convention Center, invité apprentissage machine parrain, l'attention avec le professeur CMU Tom Mitchell, Maike Mark Si-Tiger, Zhou Zhihua, un grand Cheng Tao, Chen Yiran AI et d'autres dirigeants l'intelligence artificielle et la destinée humaine.

Yuan Gu Xinzhi arrière Intelligence artificielle AI mondiale 2018 pompe Sommet mondial:

iqiyi

Matin: https: //www.iqiyi.com/v_19rr54cusk.html

Après-midi: https: //www.iqiyi.com/v_19rr54hels.html

Sina:

De trois de mise à niveau de base de la consommation automobile l'apparence, l'aile Kay X5 Pourquoi est idéal?
Précédent
Du printemps pour voir les prix
Prochain
Les développeurs IFLYTEK pour développer 2,1 milliards terminaux intelligents, tissu Hu Yuxuan AI la possibilité d'ouvrir jusqu'à 200
Revoir tous les horizons de la finale de la vie, Suqun coup de pouce pour les maisons, Yang Yi a gagné l'éloge du Liaoning sens au-delà des sports
Piste Expérience Audi TT RS: performance ne poudre pas Impress, mais certainement la peine d'être méditée
Jeff Dean Recommandé: Julia avec TPU exécuter le programme, un peu moins de 1000 lignes de code
Trois bons coups!
Wander dans le musée de Volkswagen, qui vaut plus de voiture? (Basse)
NIPS pas conduire à des ténors universitaires rebaptisés protestation commune, Jeff Dean a conduit!
la situation du marché boursier améliore!
La mer Jaune au nord contrôle maintenant le jeu scène drôle! Stade d'eau sérieux, comme si les joueurs jouent water-polo
Wander dans le musée de Volkswagen, qui vaut plus de voiture? (On)
Deepmind renfort « curiosité » apprentissage nouvelle percée! La modification des incitations, de sorte que l'agent ne soit plus « tourner autour du pot »
Une demi-poésie Shu déplacée, la vie poétique