Égoïste Ledger, la version inquiétante Google de "New Black Mirror"

Google est récemment pas paisible.

Récemment, il y a Google deux ans, a fait une laissez-passer délivré pour une exposition vidéo interne, des vidéos proposées concept de « grand livre », Ledger recueillir toutes les données utilisateur, puis basé sur le comportement des utilisateurs, les habitudes et d'autres informations pour guider l'utilisateur à remplir un objectif. Une exposition vidéo, et a conduit à un tollé public pour beaucoup de gens se replongea à nouveau dans une profonde préoccupation pour la sécurité de l'information.

Ce court-métrage intitulé « Le SelfishLedger » par la personne de conception de laboratoire Google X en charge, Near Future Labortatory co-fondateur Nick Foster personnellement la production de chirurgien. En jusqu'à 9 minutes de vidéo, Foster définit « livre (livres de données) », et en supposant que les fichiers de données peuvent être établis, peuvent également être utilisés pour modifier le comportement et le transfert mutuel entre les utilisateurs.

Google propose « paramètres du système à l'échelle » concept

Basé sur le concept de Ledger, vidéo Google a présenté une solution conceptuelle (conceptualResolutions par le système Google) - invite l'utilisateur à sélectionner une vie cible, puis chaque fois que l'interaction de l'utilisateur avec le téléphone, le téléphone guide l'utilisateur pour y parvenir une cible.

Google estime qu'il peut réaliser une « valeurs structurées », qui comprend un utilisateur appelé Uber conseille l'utilisateur d'utiliser le covoiturage et manière plus respectueuse de l'environnement pour Voyage en voyage, ou un guide à l'utilisateur d'acheter des produits locaux de Safeway.

solutions Google les utilisateurs à acheter des biens

Achieve tous ce principe est de parvenir à la cupidité Ledger pour plus de données. Il est, la collecte de données et l'apprentissage par l'accès à de grandes quantités de données utilisateur et la prise de décision, et de faire des recommandations. À l'avenir, le « concept Ledger axé sur les objectifs deviendra plus possible, les recommandations ne peuvent provenir de la conversion de l'utilisateur, mais elle est faite par Ledger lui-même. »

Version de Google se soucier "New Black Mirror"

Une fois que Ledger lui-même en mesure de prendre des décisions autonomes, que les gens craignent l'amende pensée même.

Foster a imaginé un avenir: « concept Ledger conduit but devient facile d'être accepté, et les propositions d'action mais ne peut pas être fourni par l'utilisateur lui-même Ledger, » Ceci est l'image de « Black Mirror » décrit. Le grand livre qui cherche à combler les lacunes de données, ou même choisir activement d'acheter, selon elle, attirer les utilisateurs du produit, afin de collecter des données.

Par la suite, la vidéo a cité l'exemple d'une salle de bains échelles. Un début, Ledger ne savait pas le poids de l'utilisateur. Par la suite, la vidéo commence à se déplacer vers le style scénario de science-fiction, imaginez Ledger peut devenir très intelligent, capable d'imprimer vos propres conceptions reposent sur la technologie d'impression 3D :. « Bienvenue à la maison, Dave, je vais vous donner une balance imprimé »

Foster basé sur l'idée de grand livre de, il devrait en réalité, la relativité intelligent (aixdlun) analystes Ke-Ming croient qu'il ya encore certains problèmes ne peuvent pas être ignorés.

1. peur dystopique dans le champ de vision du contrôle public

Foster idée de Ledger est non seulement un outil d'auto-amélioration. Le système est également en mesure de « combler les lacunes dans les connaissances », « modèle amélioré du comportement humain », qui comprend non seulement le comportement spécifique que vous et moi, mais contient aussi l'ensemble le comportement du groupe humain. Bien que la vidéo a souligné que les tentatives pour résoudre des problèmes tels que la pauvreté et le réchauffement climatique par l'utilisation des techniques de contrôle de l'esprit, mais la vidéo discutent sérieusement le fait que dans le changement global de comportement à grande échelle est effrayant.

Père de l'intelligence artificielle Marvin Minsky a fait valoir que les « machines du cerveau ne font que la viande », tandis que l'esprit humain est un processus complexe. Par exemple, « Pourquoi les humains pluies ne veulent pas se mouiller, mais est prêt à prendre une douche dans la salle de bain » Cet enfants âgés de 3 ans sont au courant du problème, l'ordinateur sera difficile à comprendre.

Pour les utilisateurs, la conception prévue du grand livre afin que nous nous sentons l'inquiétude. X illustrent un porte-parole a dit: Ceci est une expérience il y a quelques années de réflexion, l'équipe de conception, ils utilisent ce qu'on appelle « la conception de la spéculation (conception spéculative) » la technologie pour explorer des idées et des concepts mal à l'aise, ce qui donne lieu à la discussion et le débat. Cela n'a rien à voir avec les produits actuels ou futurs.

Mais en fait, dès 2015 Google demande de brevet soumis, il y a la présence de « détection de comportement de l'utilisateur et la correction des erreurs potentielles » référence, cette fonction est très similaire au grand livre. Quand il est vraiment universel dans la vie humaine parmi ses gens paniquent encore.

2. Informations sur le point d'une autre question d'éthique

« Si vous voulez obtenir le nombre de mensonges de commodité dans la quantité d'informations que vous êtes prêt à renoncer à la vie privée », ce qui semble être devenu un peu comme la dichotomie éternelle de Google. Lorsque l'éthique de l'information comme Amazon et Alexa Ledger Zaibao les conversations privées de ses collègues envoyés à l'accident, il est devenu une fois de plus l'attention.

Et cet événement, n'avait pas un cas. Facebook auparavant été accusé d'utiliser le système de renseignements personnels, prédire et tendances politiques des électeurs d'influence, Zach Wahlberg cet engagement sera sévèrement la rectification, et a dit qu'il serait mis en place une équipe spéciale pour protéger l'éthique des questions de sécurité de l'information de veille artificielle.

En fait, David Whitaker événement, Google déjà il y a un problème de fuite d'information. Google domine l'utilisateur l'accès à l'information et comptent sur ce monopole du pouvoir, Google dans les premières années, il utilise aussi une manière de promouvoir PPC une mauvaise, des informations fausses. En 2009, il y avait le gouvernement des États-Unis de prétendre le trafic de médicaments contrefaits sur Google et de promouvoir le scandale.

Depuis lors, l'incident « prisme », et un mauvais comportement effectués par des termes de recherche de manipulation humaine, l'interférence et d'autres questions l'élection présidentielle américaine, emprunter encore des ressources d'information.

« Ne soyez pas mal » Google

Il y a une chose pas paisible.

Récemment Google dans son dernier code de conduite, le « ne soyez pas mal », le texte a été presque complètement supprimé, bien que 2015 la réorganisation Google et de l'alphabet en tant que société mère, la société presque complètement abandonné le slogan « ne soyez pas mal », changé « faire la bonne chose. »

les lignes directrices révisées Google

Pendant ce temps, Google a une douzaine d'employés officiellement démissionné pour protester contre la société de continuer à participer au projet Maven militaire. De plus, il y a 364 universitaires professionnels de l'intelligence artificielle ont signé une lettre contre Google. Pour protester, d'abord il y a la pétition de près de 4000 employés de Google, après environ 12 employés de Google ont démissionné de la société.

La démission des salariés concernés sur l'utilisation de l'intelligence artificielle dans les opérations de drones, mais aussi inquiet au sujet de la prise de décision politique de Google, ce qui peut conduire à des utilisateurs de Google confiance a été affaibli. Bien que Google a souligné que c'est la technologie de l'intelligence artificielle ne sera pas utilisé pour tuer, mais a également admis que l'utilisation de l'intelligence artificielle dans le projet de drone du Pentagone apportera des questions éthiques et morales pour les techniciens et les chercheurs.

En dépit de Google lui-même, l'intelligence artificielle de l'IA de universel (général AI) pour développer « Society of Mind » (relativité intelligente aixdlun) analystes Ke Ming pense qu'il a encore beaucoup de « horreur ».

1. les questions prioritaires de la peur de la dislocation sociale

À l'heure actuelle, les robots ont remplacé certains travaux manuels. Très vite, ils peuvent être qualifiés une fois la pensée que les humains pour terminer le travail cognitif. véhicules autonomes remplaceront le chauffeur de taxi, les avions de pilote automatique remplacera le pilote.

Peut-être un jour, tout le travail humain sera remplacé par des machines. Tout notre travail est également susceptible d'être beaucoup plus rapide et les machines à infatigables plutôt que par eux pour produire plus rapidement le contenu d'autres produits.

Dans la société moderne, l'automatisation a conduit de nombreuses personnes sans emploi. Les machines deviennent propriétaires plus riches, d'autres sont de plus en plus pauvres. Ce n'est pas une question scientifique, mais les questions politiques et socio-économiques.

En effet, si le mal se fondant AI est contraire à l'intention initiale des scientifiques, après que tous les moyens techniques et les outils du savoir, il vraiment bon ou mauvais que les gens qui l'utilisent. Face à la sécurité technique et humaine de l'humanité elle-même, la stabilité est la première priorité de la machine, la dislocation sociale prioritaire intelligente ne fera qu'accroître le sentiment d'insécurité et de peur.

2. La peur de la violence

De 1920 drame « R. U. R. » Les robots en colère à « 2001: A Space Odyssey » en tuant le HAL9000 informatique, le développement de l'intelligence artificielle est toujours accompagné par le mythe sombre. Intelligence artificielle de nombreux avantages pour l'humanité Les. Dont certains ont été atteints, tels que les moteurs de recherche et la traduction automatique, d'autres sont sur le point de mettre en uvre, tels que les véhicules autonomes. Cependant, avec la croissance des capacités de l'intelligence artificielle, la facilité d'utilisation est plus susceptible de promouvoir la production d'abus, mais la violence est sans aucun doute le peuple AI peur.

Un rapport récemment souligné par les 25 techniciens et politiques publiques collègue co-publié avec le développement de l'intelligence artificielle, l'utilisation malveillante des risques aussi à la hausse. Le rapport a également dit qu'une fois l'intelligence artificielle était de une attaque de pirate informatique, tels que les accidents de voiture sans pilote augmentera la possibilité d'armes de drone cible entreprise à devenir.

En effet, l'utilisation malveillante de l'intelligence artificielle serait de la sécurité numérique, physique et politique imminente menace, comme il peut être à mettre en uvre à grande échelle, très ciblée et l'utilisation efficace de l'attaque. À la fin de l'année dernière, une diffusion vidéo porno en ligne, quelques-uns des visages célèbres par tapis intelligent, est greffée sur différentes parties du corps, et même quelques vidéos comme réel, conduisant ainsi à des dommages à la réputation de beaucoup d'étoiles.

Aujourd'hui, le développement de l'intelligence artificielle peut être décrite à pas de géant, beaucoup de choses une fois apparemment impossible, et est maintenant devenu possible. Toutefois, si le service de l'intelligence artificielle de l'humanité est l'utilisation des criminels, il entraînera des conséquences désastreuses.

résumé

De Burst « TheSelfish Ledger » clips pour supprimer « ne pas être mal » critères, le domaine de l'intelligence artificielle, Google est en effet temps troublés. Cependant, il est indéniable que engendrait le progrès et l'innovation technologique est le développement de l'industrie. Que ce soit « Le grand livre Selfish » deviendra la version Google du « New Black Mirror », qui prendra du temps à tester et le marché, et le développement de Google lui-même, encore besoin de regarder la dialectique.

Plus de contenu passionnant, l'attention des médias titane signal de micro (ID: taimeiti), titane ou télécharger les médias App

Hit 32 millions de pré-selfie, Huawei a officiellement publié nova 4E
Précédent
top dix mondial de Nouvelles d'une semaine: Softbank investissement WeWork Samsung a publié Note8
Prochain
« Hellboy » la prise en charge « venin », « Deadpool 2 » est plus de style charme sombre anti-héros
exposition Shark AWE 2019: entretien ménager montrant un « polyvalent »
En fin de compte pas sur IIoT? PME occasion tort ou perdu
190407 Yixing est arrivé Gimpo, l'agneau de musique est apparu en Corée, il
Aujourd'hui Amway Le spectacle est un oratorios essaimées
190407 Yixing « Les jeunes ont vous » finale en direct enregistrer des images haute résolution libéré
La plus chaude façon, est le moyen de rentrer à la maison
La nouvelle voiture concept - Geely PRÉFACE Shanghai Auto Show débuts à partir
Japon marque casque conduction osseuse Boco officiellement entrée sur le marché chinois
« Apink » « Partager » 190407 « Officer School de paysan » y mettre fin! Nous vous remercions de prendre soin de l'acteur S & P!
US nouvelle marque débuts « Coucou Bugu »: cibler le marché des appareils Internet
les forces ennemies « du groupe Jet d'encre Couleur 2 » annoncé moi manger des amis « rouleau »