Service Serverless détaillé, il subvertir votre compréhension du cloud | dur pour créer la classe ouverte

l'architecture Serverless serverless est une chose nouvelle, mais aussi pour deux ans, est pas non plus une autorité reconnue de la définition apparaît maintenant. 2014 Amazon a officiellement publié service Lambda Serverless, après près de deux ans de fermentation, Google, Microsoft et Ali également en 2016 a lancé ses propres services connexes.

L'industrie estime que, Serverless représente un nouveau paradigme de la conception de logiciels, peuvent également subvertir notre compréhension générale du nuage. Le coup dur classe ouverte, Lei Feng réseau à l'invité frappant de constater que membre de l'équipe fondatrice et architecte en chef Gong Linghui, quoi dire quelque chose au sujet du service Serverless à la fin, son développement est une sorte de comment.

est une plate-forme est frappant de constater la station libre-service qui fournit des modèles, des ressources de conception, éditeurs, etc., vous pouvez construire votre propre contenu d'un site Web dans un court laps de temps, de fournir des services d'hébergement. Il a été le premier éclos de start-up YC domestiques, principalement pour aider les utilisateurs non techniques de la station de service, mais il a besoin.

Gong Linghui, membres fondateurs de l'équipe est frappant de constater, le premier ingénieur. Il est diplômé de l'ordinateur, l'Université Fudan, avant de rejoindre frappant de constater que, avait travaillé dans le secteur des entreprises d'infrastructure de Morgan Stanley. Après avoir ajouté frappant de constater que 2013 années, le produit a fait, engagé dans l'exploitation et la maintenance de l'automatisation, étudié Web Analytics et le référencement, l'analyse des données joué, actuellement en charge de l'équipe de développement back-end, les services de fonctionnement du système de projet et de maintenance, et l'analyse des données et de l'équipe R & D gestion.

Voici les principaux contenus de Lei Feng réseau ouvert de finition de classe, le contenu plus complet Voir la vidéo ci-dessus Lei Feng réseau classe ouverte:

A partir de 2014, nous avons commencé en utilisant AWS. En 2014, Amazon a publié un service Serverless, il est une idée subversive, peu de gens utilisent. Nous sommes aussi au début de l'année dernière et seulement ensuite Serverless introduit dans le système.

Alors quel est le service Serverless?

Les premières applications Internet ne reposent sur l'architecture du système traditionnel d'IDC, le personnel d'exploitation et d'entretien ont une gestion professionnelle des ressources informatiques, mais aussi sur la charge du système pour faire une évaluation rigoureuse et la prévision, donc le temps d'acheter un nouveau serveur. Plus tard, la technologie de virtualisation augmente la flexibilité, calcul propriétaires des ressources peuvent mettre ensemble des ressources, en fonction du temps de charge, qui a également donné naissance à des services IaaS.

l'évolutivité IaaS et le contrôle des coûts du système a un rôle important, mais en termes de sociétés de démarrage, la virtualisation est toujours pas assez, alors la plate-forme de nuage était plus abstraction de base de la virtualisation, ce qui permet aux développeurs de se concentrer uniquement sur l'application logique, mais ne contrôle pas le déploiement de configuration du serveur et de l'application, qui est PaaS.

Mais tout en simplifiant la complexité et la rapidité du développement itératif et l'application du système, PaaS doivent encore ajuster la quantité de ressources informatiques pour adapter à l'évolution du système, que si les ressources informatiques sont disponibles avec un changement de système rétractable automatique? Voilà pourquoi Serverless né.

Serverless non sans serveur, avec les formes traditionnelles de services informatiques aux principales différences sont:

Plus d'allocation granulaire des ressources informatiques;

Le plan de base sans ressources informatiques avant;

évolutive très flexible;

Sur demande, pay-per-use.

Cependant, ceux-ci peuvent aussi Cloud Computing en particulier, mais la vraie différence est comme l'image ci-dessus analogie, de jouer sur leur propre eau de puits à l'eau du robinet, puis barreled sur demande à tout emploi du temps, Serverless comme un robinet, il est le service flexible pour atteindre la nature ultime, est essentiellement un service de plate-forme de cloud computing forme la plus grains fins.

Le statu quo dans l'industrie

Serverless l'avant-garde des fabricants est sans aucun doute l'Amazonie AWS, qui à partir de 2006 pour fournir des services de cloud computing, qui avance a été étendue. Microsoft Azure Cloud avec Ali a également lancé un service Serverless.

Pourquoi AWS pour développer Serverless? En fait, les utilisateurs ont la demande croissante de la commodité et la flexibilité du cloud, ce qui Serverless est certainement une tendance émergente, sinon AWS, d'autres fabricants seront élevés. La figure est calendrier de sortie de service AWS Serverless.

Le plus célèbre est probablement Lambda, mais Serverless inclure tous les aspects, tels que S3 est très typique des frais de service de Serverless selon la quantité de trafic de données et de stockage.

Il y a un point de préoccupation est qu'en 2014 AWS libéré Lambda, mais Serverless augmente l'intérêt pour les deux dernières années avant. En effet, la technologie de conteneurs 2014 vient de devenir le foyer et Serverless trop d'avant-garde, tous les fournisseurs de cloud ne voulait pas savoir comment la développer, n'est pas mature et de l'écologie, dans la mise en uvre du projet, il y a encore beaucoup de problèmes.

AWS a pris plus d'un an pour promouvoir Serverless, tandis que les outils associés ont également été mis au point, de sorte que certains utilisateurs ont goûté à la douceur, qui a également causé d'autres fabricants pour assurer le suivi, ont lancé le service en 2016. D'autres fabricants de rattraper le temps, AWS aussi le Lambda étendu à d'autres services, tels que l'Internet des objets et le transport de données massives.

plate-forme Google App Cloud Engine sorti en 2008 pour entrer dans le service cloud, actuellement son service Fonctions Cloud est Serverless encore en version bêta. nuage Microsoft Azure avec Ali nuage a également publié les 2016 Fonctions Azure et Fonction Compute, est un essai.

look Serverless comme?

Vient ensuite plusieurs services Serverless typique, et comment construire des solutions pratiques.

le service figure sous les AWS divisé en trois catégories. On est construit directement sur le service EC2. Le deuxième type est un service géré, pas de gestion de machine virtuelle sous-jacente, juste la taille de l'allocation des ressources, il attribuera automatiquement les ressources. Les services d'hébergement entre chaque fournisseur de cloud sont très différents, mais aussi les mensonges de la concurrence. La troisième catégorie est le service Serverless, entièrement géré par les AWS, même sans pré-allocation des ressources informatiques, nous ne considérons pas la mise en uvre souple et élastique, simplement l'utiliser.

représentant du service Serverless avec le numéro suivant.

One Lambda

Ceci est basé sur l'événement axé sur le service Serverless. Il ne nécessite pas un serveur de gestion et des ressources informatiques abstraites, deux évènementielle, peut être la puissance de calcul étendue automatiquement, les coûts de contrôle tiers, selon le montant reçu, le temps peut être précis à 4 secondes.

Comment Lambda-il? Tout d'abord, le code existant emballé en fonction Lambda, un second moyen de sélection pour calculer la taille, la AWS fournit une indication d'une seule exception, il suffit de sélectionner la taille de la mémoire d'exécution nécessaire, peut être adapté automatiquement GPU, I / O et ainsi de suite, en troisième lieu, le paquet de code à télécharger AWS, quatrième spécifié événement déclencheur, comme une demande de l'API et les messages SNS, il a la capacité d'interagir avec d'autres services.

Lambda utilisation convient de noter que:

Il est un état de non modèle de calcul, pour ainsi éviter l'installation pendant le fonctionnement en fonction du code;

D'autre part, son mécanisme de mise en uvre a un algorithme de prédiction de flux, mais il ne peut pas être prédit en l'absence de conditions d'écoulement, donc après une période de temps pas mis en uvre, il y aura un retard au redémarrage, selon le cas, donc empêcher le démarrage à froid;

Troisièmement, le mécanisme d'alias et intégré dans la version nécessite l'utilisation rationnelle;

En quatrième lieu, le droit de compiler du code natif.

DynamoDB

Il est un AWS interne distribué le service de base de données NoSQL. Ses principales caractéristiques comprennent: entièrement gérées par l'AWS, sans réglages que vous pouvez obtenir rapidement et la lecture stable et l'écriture, l'espace de stockage augmentera à mesure que la quantité de données augmente. Il soutient également Lambda, si fine pour soutenir chacune des données de contrôle d'accès.

aurore

Il est interface AWS-compatible au service de base de données relationnelle tiers, actuellement en phase de prévisualisation. Son apparence est due aux solutions de bases de données traditionnelles ne sont pas conçus pour la plate-forme cloud, avec la nécessité de redéfinir la pensée du nuage.

AWS a introduit le concept de SOA, recréez le moteur de base de données, les composants de données traditionnels répartis en un certain nombre de modules séparés, puis leurs propres plates-formes de cloud ont déjà des services pour atteindre ces modules de service. Cela permet au besoin de l'utilisateur vous inquiétez pas les mises à jour de bases de données, l'expansion de la capacité de ces maux de tête.

Comme on le voit ci-dessus, l'ensemble des données est divisé dans la couche de base de données de services et une couche de commande, une couche de commande, Route 53 par DynamoDB pour stocker les métadonnées service de découverte, responsable de la coordination de la SOA SWF. couche de données en utilisant S3 forte de fiabilité pour obtenir une haute disponibilité pour le stockage des données.

stockage AWS partagé également obtenu par lecture séparée et écriture, et la haute disponibilité, pour répondre aux besoins de la plupart des utilisateurs de la base de données. Le prix d'Aurora est presque proche du prix de base de données open source, seulement environ un dixième du prix des bases de données commerciales haut de gamme.

comparaison de la performance figure est l'Aurora (bleu) et MySQL (vert et rouge) dans la base de données à lire et à écrire.

Dans l'ensemble, le coût économique, le coût de la gestion et l'utilité pratique, sont au-delà de la base de données traditionnelle.

modèles de conception Serverless

Classique application web à trois niveaux

Une application web typique est généralement divisée en ressources dynamiques et statiques. Dans la conception, vous pouvez utiliser S3 comme des ressources statiques de stockage, en même temps avec le service d'accélération CloudFront CDN. Ceci est un site dynamique de stockage de données DynamoDB, obtenir un échange statique via l'API avant la passerelle et Lambda. toute l'architecture utilisent le service Serverless.

Vous pouvez également concevoir une architecture plus complexe, comme indiqué ci-dessous:

Partie statique ou S3 et CloudFront, mais en ajoutant des fonctionnalités avancées. partie dynamique de soutien IAM ajouté, et cette couche de contrôle de flux ajouté, et comme dans l'API d'authentification Gateway. Vous pouvez également ajouter des services de pare-feu WAF.

Mais composants de l'architecture Serverless aussi, si l'API a des dizaines ou des centaines même de noeuds, la fonction Lambda sera tellement gestion manuelle serait très pratique. Par conséquent, Amazon a lancé un programme correspondant SAM. suit la figure:

Amazon AWS CloudFormation est conçu pour configurer et gérer des ressources informatiques, les services, SAM est un sous-ensemble de celui-ci, vous pouvez l'utiliser pour emballer un design d'ensemble de l'architecture, automatiquement tout configure en même temps emballé, donc l'automatisation.

Les données de lot

Beaucoup logique de données par lots peut être décomposé en une carte-reduce fonctionnement raisonnable. Mais l'idée est de fournir Lambda Amazon, la présence des données de trouble d'origine, puis à définir le filtre (attribué à une pluralité de Maper d'entrée de données), Maper (mappage logique est effectuée, et le résultat de mise en correspondance est présent DynamoDB), le réducteur (traitement logique de mappage, la présence de la fonction trois lambda S3) du résultat final. Depuis les événements S3 et DynamoDB peuvent déclencher l'exécution de la fonction Lambda, peut être entièrement automatisé l'ensemble du processus et mise à l'échelle automatique. De plus, parce que les deux points de départ et de fin S3, il est possible de mettre une pluralité de logiques Carte-Reduce en série pour former un modèle de processus plus complexe.

de données en continu

Kinesis est une donnée de flux de marque Amazon. La figure est une version simplifiée du flux de données et à deux étapes S3 et système de traitement d'imputation Lambda.

La première étape pour obtenir la première utilisation du processeur processeur Lambda Stream, qui traitera les données stockées sur le flux résultat S3. La seconde fonction de minuterie est déclenchée périodiquement fonction CloudWatch Lambda, le résultat intermédiaire du traitement ultérieur, le résultat final est présent sur S3. Pour plus d'efficacité, la seconde étape est un allocateur de tâche Lambda, une pluralité de fonctions spécifiques peut être déclenchée de traitement de données Lambda tandis que, en même temps une pluralité de résultats intermédiaires dans S3 objets pour le traitement.

Il y a un risque, il vient de la différence entre Lambda et Kinesis intégré des solutions techniques. Lorsque les deux docking, l'ancien est celui-ci des capacités de parallélisme de parallélisme limité. Processeur nombre courant de flux de données d'exécution ne peut pas dépasser le Kinesis alloué, ce qui conduit à pousser le courant de produit.

La solution est de savoir si le goulot d'étranglement est la cible de la fonction Kinesis Lambda, il peut raccourcir le temps d'exécution de la fonction. Plus précisément, Lambda n'est pas responsable de la fonction spécifique du traitement des données, mais il devrait donner plus de traitement Lambda parallèle. Puisque aucune autre fonction Lambda pour limiter la gâchette parallèle de la fonction Lambda, vous pouvez effectuer un traitement en temps réel des données provenant Kinesis.

forces et faiblesses Serverless

Comme déjà mentionné profiter, et maintenant venu de parler de ses problèmes et défis. En général, une partie du développement traditionnel des compétences et l'expérience ne sont pas applicables.

Le premier est les services grains fins augmente la difficulté de développer des applications à grande échelle. application web traditionnelle peut gérer des centaines de milliers d'API, mais il faut Serverless les développeurs d'avoir la possibilité de venir pour faire face à la direction.

Suivi par Serverless utiliser uniquement une pile technologie spécifique nuage soutien des fournisseurs, il y a certaines restrictions sur le comportement du code.

La mise en place de l'environnement de développement local est plus difficile de les inconvénients de débogage. Maintenant, certaines personnes avec Docker simulé environnement opérationnel, il vaut la peine d'essayer localement, mais ne peut pas fermer complètement l'environnement de production.

modèle de sécurité d'application ne sont pas assez mature, comment réaliser le cryptage, l'authentification, le temps d'examen des besoins de gestion des droits.

sens Serverless

Les ingénieurs de développement, Serverless est une nouvelle opportunité de carrière. Il ne remplacera pas complètement le modèle de développement traditionnel existant et le déploiement, mais il brillera dans certains domaines. Elle réduit également le développement d'applications concurrentes seuil haut peut être hautement évolutive et haute disponibilité pour la mise en uvre de l'application.

Exploitation et techniciens de maintenance peuvent plus reconnaître clairement le système de l'ère de l'informatique en nuage en fonctionnement et à l'entretien de cette crise de carrière. Une tendance est cloud computing, cloud fournisseurs produit de sa propre expérience dans l'architecture et les pratiques d'exploitation et d'entretien, à la disposition de l'utilisateur, et leur caractéristique commune dépend de l'exploitation et la maintenance des petits, des ingénieurs de développement indépendants peuvent compléter le système déploiement.

Mais cette évolution prend en compte la direction du développement de carrière, l'exploitation et l'entretien des tâches d'automatisation. Serverless veulent aussi la transition vers la direction de l'automatisation des opérations et techniciens d'entretien d'opportunités de développement de carrière, peuvent tirer profit de la nouvelle opération de Serverless et de la logique de maintenance pour terminer l'opération et l'entretien de l'automatisation.

CTO et architecte, Serverless peut aider à comprendre les nouvelles idées de conception d'architecture, avec une partie de l'architecture du système Serverless atteindre, développer et fournir l'efficacité de l'exploitation et la maintenance, l'évolutivité à faible coût et la disponibilité.

Chef de la direction et les gestionnaires de produits à comprendre l'aide Serverless déterminer si un produit est adapté à ces caractéristiques de service pour la mise en uvre rapide.

Pour les étudiants, le total droit d'apprendre à jour les connaissances, l'apprentissage peut aider à comprendre Serverless le nouveau paradigme de la conception de logiciels, pour se préparer à leur propre développement de carrière

On peut dire, Serverless représente un nouveau paradigme de la conception de logiciels avec des idées nouvelles ont besoin de regarder le cloud computing, il a bouleversé la compréhension du nuage.

Été poussée à vouloir se retirer, Ning Zetao tomber derrière l'autel de combien ombragé
Précédent
De la « Cinq Dynasties et Dix Royaumes » à « Song, Liao impasse », la musique en streaming Perspectives du marché 2019
Prochain
Six et passer vainqueur Jacky Cheung, le film pourrait être en mesure de contre-attaquer avec un
Et poussé une variété de produits, Microsoft c'est un grand combat au rythme des choses sur le terrain?
Putain la femme à son mari, parce que les jambes courtes ne pouvaient pas atteindre l'accélérateur Goof ...... site de l'air gelait!
Mouvement de la caméra, un casque antibruit, le nouveau drone par Lynx commence à devenir le nouveau grand « artefact Voyage » 3
Laisser refroidir à l'explosion de films de zombies, vous recommandez un paquet unique
Simplifier l'examen de l'imprimante laser Brother HL-2595DW
Tencent libéré chaîne de blocs de niveau entreprise papier blanc devant un rival IBM
Aide version japonaise de « The Shawshank Redemption » et comment peut-sang frais
Boutique Bowen personnaliser un outil clé dans la simulation Vivado
empreintes digitales écran Millet 8 Edition revue: refléter les détails de l ' « effort réel »
Trump gagner, grâce à une force mystérieuse d'une autre planète
« La Planète des Singes 3: Ultimate Battle » réveil version de la bande-annonce de plomb singe exposé de l'histoire de la croissance de la force César fans de la mémoire collective