Azure Frontdoor:

 

Basierend auf Ihrer Routingmethode können Sie sicherstellen, dass Front Door Ihre Clientanforderungen an das schnellste und verfügbarste Anwendungs-Back-End weiterleitet. Ein Anwendungs-Back-End ist ein Dienst mit Internetzugriff, der innerhalb oder außerhalb von Azure gehostet wird. Front Door bietet eine Reihe von Datenverkehrsrouting-Methoden und Back-End-Systemüberwachungsoptionen, die verschiedene Anwendungsanforderungen und automatische Failoverszenarien erfüllen. Ähnlich wie Traffic Manager zeichnet sich Front Door durch eine geringe Fehleranfälligkeit aus, selbst wenn es zum Ausfall einer ganzen Azure-Region kommt.

 

Azure bietet folgende fully managed Load Balancer für Ihre Szenarien:

 

·        Wenn Sie DNS-basiertes globales Routing durchführen möchten und keine Anforderungen zur Beendigung der TLS-Protokollierung (Transport Layer Security, „SSL Offloading“) oder zur Verarbeitung der Anwendungsschicht pro HTTP/HTTPS-Anforderung vorliegen, lesen Sie den Artikel zu Traffic Manager.

 

·        Wenn Sie Lastenausgleich zwischen den Servern in einer Region auf Anwendungsebene durchführen möchten, lesen Sie den Artikel zu Application Gateway.

 

·        Um Lastenausgleich auf Netzwerkebene auszuführen, lesen Sie den Artikel zu Load Balancer.

 



Frontdoor und DNS als globaler Eintrittspunkt für Kunden und extra Sicherheit

 

Azure DNS ist ein Hostingdienst für DNS-Domänen, der eine Namensauflösung mittels Microsoft Azure-Infrastruktur bietet. Indem Sie Ihre Domänen in Azure hosten, können Sie Ihre DNS-Einträge unter Verwendung der gleichen Anmeldeinformationen, APIs, Tools und Abrechnungsabläufe wie bei Ihren anderen Azure-Diensten verwalten.

 

Es ist nicht möglich, Azure DNS zum Erwerben eines Domänennamens zu verwenden. Ein Domänenname kann für eine Jahresgebühr über App Service-Domänen oder über die Domänennamen-Registrierungsstelle eines Drittanbieters erworben werden. Ihre Domänen können dann in Azure DNS für die Verwaltung von Einträgen gehostet werden. 

 

        WebApp um die WetterApp zu hosten

 

Azure Web Apps is a cloud computing based platform for hosting websites, created and operated by Microsoft.
It is PaaS which allows publishing Web apps running on multiple frameworks and written in different programming languages (
.NETnode.jsPHPPython and Java), including Microsoft proprietary ones and 3rd party ones.

 

Azure Web App is the service that helps us in developing the user interactive, multi-functional, secured, scalable, and highly reliable application. It is a platform that helps host web applications by building, deploying, and running applications.

 

In Azure Web App, we need to migrate our application to the cloud and relax. The family head ‘Azure App Service‘ will look after everything and helps in running the procedure. The most significant advantage of hosting the application on the web is that we don’t need to pay much attention to the infrastructure. Unlike the traditional way, where we need to check for Server capabilities, Operating System updates, and keeps an eye on IIS (Internet Information Services running), Azure Web App does all this on its own.

 

Web App makes the task easier for us by installing Azure Service Fabric (refer to the above image), responsible for performing all the operations. Azure Service Fabric makes sure that the Web App is provided with all the required resources and allocation. Azure Web App ensures that application updates, configuration management, traffic rules, compliance requirements are fulfilled without the developer on the other hand. Companies can focus more on enhancing the application experience for the customer and provide them with excellent results.

 

Azure QueueStorage, um Kunden Requests in eine Queue zu führen:

 

ermöglicht Cloud-Messaging zwischen Anwendungskomponenten. Bei der Entwicklung skalierbarer Anwendungen werden häufig einzelne Anwendungskomponenten entkoppelt, damit sie unabhängig skaliert werden können. Azure Queue Storage ist ein Dienst für die Speicherung großer Nachrichtenmengen. Sie können überall auf der Welt über authentifizierte Aufrufe mithilfe von HTTP oder HTTPS auf Nachrichten zugreifen. Eine Warteschlangennachricht kann bis zu 64 KB groß sein. Eine Warteschlange kann Millionen Nachrichten enthalten, bis die maximale Kapazität eines Speicherkontos erreicht ist. Warteschlangen werden häufig verwendet, um ein Arbeits-Backlog zur asynchronen Verarbeitung zu erstellen.

 

 

 

Azure Functions, um die Wetter-App-Programmlogik zu berechnen.

 

Beim Serverless Computing kann ein Benutzer einfach Code erstellen und hochladen und dann die Auslöser (Trigger) oder Ereignisse (Event) definieren, die den Code ausführen. Trigger können aus einer Vielzahl von Quellen stammen, einschließlich der Anwendung eines anderen Benutzers oder anderer Cloud-Dienste, wie Datenbanken und Event und Notification Hubs. Serverless-Computing-Funktionen sind in der Regel keine vollständigen, mit allen Funktionen ausgestatteten Anwendungen. Stattdessen übernehmen Funktionen spezifische, kurzlebige Aufgaben. Die meisten Funktionen beinhalten irgendeine Form der Datenverarbeitung, wie zum Beispiel Bild- oder Auftragsbearbeitung, sowie Dateipflege oder Datenerfassung von IoT-Geräten (Internet of Thing).

 

Einige Beispiele dafür, wie ein IT-Team Azure Functions verwendet, sind:

 

·        Der Azure Event Hub kann verschiedene Ereignisse liefern, die Funktionen im Zusammenhang mit Bedingungen in der Cloud-Umgebung oder einem Benutzerkonto auslösen.

 

·        Ein generischer Web-Hook kann HTTP-Anfragen verarbeiten, wodurch Trigger von Websites oder GitHub-Repositorys kommen können.

 

·        Der Nachrichtenverkehr kann Funktionen auslösen. Beispielsweise können Nachrichten, die in einer Azure-Storage-Warteschlange ankommen, Funktionen auslösen.

 

·        Auch Timer können Funktionen auslösen, wodurch Benutzer regelmäßige Aufgaben, wie zum Beispiel Dateibereinigungen, nach einem regelmäßigen Zeitplan ausführen können.

 



 

Azure Table Storage mit Replikation, um ein Archiv mit Wettermeldungen zu erhalten.

 

Mit Azure Table Storage können Sie große Mengen strukturierter Daten speichern. Der Dienst ist ein NoSQL-Datenspeicher zur Annahme authentifizierter Anrufe von innerhalb und außerhalb der Azure-Cloud. Azure-Tabellen sind hervorragend zur Speicherung strukturierter nicht relationaler Daten geeignet.
Mit Azure Table Storage können Sie teilweise strukturierte Daten im Petabytebereich speichern und die Kosten niedrig halten. Im Gegensatz zu vielen anderen lokalen oder cloudbasierten Datenspeichern können Sie mit Table Storage hochskalieren, ohne Ihr Dataset manuell fragmentierten zu müssen. Auch über die Verfügbarkeit müssen Sie sich keine Gedanken machen: Bei Verwendung von georedundantem Speicher werden die gespeicherten Daten innerhalb einer Region dreimal repliziert – und weitere dreimal in einer anderen, Hunderte Kilometer entfernten Region.

 

 

 

Az Cache for Redis um die Abholung von Daten von DB zur Functions schneller zu machen

 

bietet einen auf der Software Redis basierenden In-Memory-Datenspeicher. Redis verbessert die Leistung und Skalierbarkeit einer Anwendung, die intensiven Gebrauch von Back-End-Datenspeichern macht. Azure Cache for Redis ist ein vollständig verwalteter In-Memory-Cache, der hochleistungsfähige und skalierbare Architekturen ermöglicht. Er bietet Ihnen die Möglichkeit, cloudbasierte oder hybride Bereitstellungen zu erstellen, die Millionen von Anforderungen pro Sekunde bei einer Latenz von weniger als einer Millisekunde verarbeiten. Gleichzeitig profitieren Sie von den Konfigurations-, Sicherheits- und Verfügbarkeitsvorteilen eines verwalteten Diensts.

 

Az Communication Services um SMS/Push Notifications zur Kunde zu schicken

 

Azure Communication Services sind cloudbasierte Dienste mit REST-APIs und Clientbibliothek-SDKs, die Sie dabei unterstützen, Ihre Anwendungen mit Kommunikationsfunktionen auszustatten. Sie können Ihren Anwendungen Kommunikationsfunktionen hinzufügen, ohne sich mit Kommunikationstechnologien wie Mediencodierung und Echtzeitnetzwerken auskennen zu müssen. Diese Funktionalität wird auch in Azure für Behörden unterstützt.
Zu den Szenarien für Azure Communication Services gehören:

 

·        B2C (Business-to-Consumer): Die Mitarbeiter und Dienste eines Unternehmens können mit Kunden über Sprach-, Video- und Rich-Text-Chats in einem benutzerdefinierten Browser oder einer mobilen Anwendung interagieren. Eine Organisation kann SMS-Nachrichten senden und empfangen oder ein IVR-System (Interactive Voice Response, interaktive Sprachantwort) mit einer über Azure bezogenen Telefonnummer betreiben. Dank Microsoft Teams-Integration können Kunden an Teams-Besprechungen teilnehmen, die von Mitarbeitern gehostet werden – perfekt für Remoteszenarien im Gesundheitsbereich, im Bankwesen und im Produktsupport, wo Mitarbeiter ggf. bereits mit Teams vertraut sind.

 

·        C2C (Consumer-to-Consumer): Erstellen Sie ansprechende soziale Bereiche für die Interaktion zwischen Verbrauchern mit Sprach-, Video- und Rich-Text-Chats. Auf der Grundlage von Azure Communication Services-SDKs kann jede beliebige Art von Benutzeroberfläche erstellt werden. Für einen schnellen Einstieg stehen jedoch vollständige Anwendungsbeispiele und ein Open-Source-Toolkit zur Benutzeroberflächengestaltung zur Verfügung.

 

Verwenden Sie Azure Communication Services z.B. zum Bereitstellen und Freigeben von Telefonnummern. Diese Telefonnummern können zum Initiieren oder Entgegennehmen von Anrufen sowie zum Erstellen von SMS-Lösungen verwendet werden.

 

MySQL Kundendatenbank in Azure die eine Replikation über VPN von On-premises ist

 

 

 

Dev/Test Labs zum Development/Test von App-Aktualisierungen

 

ermöglicht es Entwicklern in Teams, virtuelle Computer (VMs) und PaaS-Ressourcen effizient selbst zu verwalten, ohne auf Genehmigungen warten zu müssen. DevTest Labs erstellt Labs, die aus vorkonfigurierten Datenbanken oder Azure Resource Manager-Vorlagen bestehen. Mit diesem Dienst können Sie schnell eine Umgebung für Ihr Team (z. B. eine Entwicklungsumgebung oder Testumgebung in der Cloud) einrichten. Der Besitzer des Labs erstellt ein Lab, stellt virtuelle Windows- oder Linux-Computer bereit, installiert die erforderlichen Programme und Tools und stellt sie Lab-Benutzern zur Verfügung. Labbenutzer verbinden sich mit virtuellen Computern (VMs) im Lab und nutzen sie für ihre tägliche Arbeit und kurzzeitige Projekte. Sobald Benutzer die Ressourcen im Lab nutzen, kann ein Lab-Administrator die Kosten und Nutzung mehrerer Labs analysieren und übergreifende Richtlinien festlegen, um die Kosten Ihrer Organisation oder Ihres Teams zu optimieren.

 

Metrics/Logs Monitoring zur Überwachung der Performance

 

 

 

App Insights für Details zum Nutzerverhalten

 

Mit Application Insights liefert Microsoft einen Dienst zur Anwendungsüberwachung für Entwicklung und DevOps. ... Application Insights lässt sich auch bei Webdiensten sowie im Backend einsetzen. Sogar Desktop-Anwendungen lassen sich überwachen. Application Insights, ein Feature von Azure Monitor, ist ein erweiterbarer Dienst zur Verwaltung der Anwendungsleistung (Application Performance Management, APM) für Entwickler und DevOps-Profis. Überwachen Sie damit Ihre aktiven Anwendungen.

 

2 Regionen für Hochverfügbarkeit

 

 

 

Templates für automatisiertes Deployment

 

 

 

 

 

 

 

Private Endpoints zwischen Services in Azure

 

Ein privater Endpunkt ist eine Netzwerkschnittstelle, die eine private IP-Adresse aus Ihrem virtuellen Netzwerk verwendet. Diese Netzwerkschnittstelle bietet eine private und sichere Verbindung zwischen Ihnen und einem von Azure Private Link unterstützten Dienst. Ein privater Endpunkt ist eine Netzwerkschnittstelle, die eine private IP-Adresse aus Ihrem virtuellen Netzwerk verwendet. Diese Netzwerkschnittstelle bietet eine private und sichere Verbindung zwischen Ihnen und einem von Azure Private Link unterstützten Dienst. Indem Sie einen privaten Endpunkt aktivieren, binden Sie den Dienst in Ihr virtuelles Netzwerk ein.
Sie können private Endpunkte für Ihre Azure Storage-Konten verwenden, um Clients in einem virtuellen Netzwerk (VNET) den sicheren Zugriff auf Daten über Private Link zu ermöglichen. Der private Endpunkt verwendet eine separate IP-Adresse aus dem VNet-Adressraum für jeden Speicherkontodienst. Der Netzwerkdatenverkehr zwischen den Clients im VNET und dem Speicherkonto wird über das VNET und eine private Verbindung im Microsoft-Backbone-Netzwerk geleitet, sodass keine Offenlegung im öffentlichen Internet erfolgt.

 

Die Verwendung privater Endpunkte für Ihr Speicherkonto bietet Ihnen folgende Möglichkeiten:

 

·        Schützen Ihres Speicherkontos, indem Sie die Speicherfirewall so konfigurieren, dass alle Verbindungen am öffentlichen Endpunkt für den Speicherdienst blockiert werden.

 

·        Erhöhen der Sicherheit für das virtuelle Netzwerk (VNET), indem Sie die Exfiltration von Daten aus dem VNET blockieren.

 

·        Sicheres Verbinden mit Speicherkonten aus lokalen Netzwerken, die eine Verbindung mit dem VNET über VPN oder ExpressRoutes mit privatem Peering herstellen.

 

·        Ein privater Endpunkt ist eine spezielle Netzwerkschnittstelle für einen Azure-Dienst in Ihrem virtuellen Netzwerk (VNET). Wenn Sie einen privaten Endpunkt für Ihr Speicherkonto erstellen, wird eine sichere Verbindung zwischen Clients in Ihrem VNET und Ihrem Speicher bereitgestellt. Dem privaten Endpunkt wird eine IP-Adresse aus dem IP-Adressbereich Ihres VNET zugewiesen. Für die Verbindung zwischen dem privaten Endpunkt und dem Speicherdienst wird eine sichere private Verbindung verwendet.

 

·        Anwendungen im VNET können eine nahtlose Verbindung mit dem Speicherdienst über den privaten Endpunkt herstellen, und zwar mit denselben Verbindungszeichenfolgen und Autorisierungsmechanismen, die auch sonst verwendet würden. Private Endpunkte können mit allen vom Speicherkonto unterstützten Protokollen verwendet werden, einschließlich REST und SMB.

 

·        Private Endpunkte können in Subnetzen erstellt werden, die Dienstendpunkte verwenden. Clients in einem Subnetz können somit eine Verbindung mit einem Speicherkonto über einen privaten Endpunkt herstellen, während für den Zugriff auf andere Konten Dienstendpunkte verwendet werden.

 

·        Wenn Sie einen privaten Endpunkt für einen Speicherdienst in Ihrem VNET erstellen, wird an den Speicherkontobesitzer eine Einwilligungsanforderung zur Genehmigung gesendet. Wenn der Benutzer, der die Erstellung des privaten Endpunkts anfordert, auch ein Besitzer des Speicherkontos ist, wird diese Einwilligungsanforderung automatisch genehmigt.

 

·        Speicherkontobesitzer können Einwilligungsanforderungen und die privaten Endpunkte im Azure-Portal über die Registerkarte Private Endpunkte für das Speicherkonto verwalten.

 

·         Tipp

 

·        Wenn der Zugriff auf Ihr Speicherkonto nur über den privaten Endpunkt erfolgen soll, konfigurieren Sie die Speicherfirewall so, dass der Zugriff über den öffentlichen Endpunkt verweigert oder gesteuert wird.

 

·        Sie können Ihr Speicherkonto schützen, indem nur Verbindungen über das VNET akzeptiert werden. Dazu konfigurieren Sie die Speicherfirewall so, dass der Zugriff über den öffentlichen Endpunkt standardmäßig verweigert wird. Sie brauchen keine Firewallregel, um Datenverkehr aus einem VNET mit einem privaten Endpunkt zuzulassen, da die Speicherfirewall nur den Zugriff über den öffentlichen Endpunkt steuert. Private Endpunkte verwenden stattdessen den Einwilligungsflow, um Subnetzen den Zugriff auf den Speicherdienst zu gewähren.

 

Web API von Openweather mit Wetterdaten
Eine API (Application Programming Interface) ist ein Satz von Befehlen, Funktionen, Protokollen und Objekten, die Programmierer verwenden können, um eine Software zu erstellen oder mit einem externen System zu interagieren.
Was bedeutet API?

 

Die Abkürzung API steht für Application Programming Interface, was zu Deutsch schön sperrig als Anwendungsprogrammierschnittstelle zu übersetzen ist. Dabei handelt es sich grob gesagt um eine Schnittstelle, über die zwei unterschiedliche Systeme miteinander kommunizieren. Solche Schnittstellen können überall auftreten – zwischen Programmen, Servern, selbst in Haushaltsgeräten. Im Zusammenhang mit REST wollen wir uns in diesem Artikel aber auf APIs von Webseiten und -anwendungen konzentrieren. 

 

Du kannst dir also merken: Immer wenn Software A mit Software B kommuniziert, geschieht dies über eine Schnittstelle, also eine API. Doch wie diese Kommunikation abläuft, kann von Schnittstelle zu Schnittstelle variieren. Und genau hier kommt REST ins Spiel.

 

1.2 Was bedeutet REST?

 

Bei einer REST API handelt es sich natürlich nicht um eine übriggebliebene Schnittstelle – auch REST ist eine Abkürzung:

 

  • Representational
  • State
  • Transfer

 

Wenn eine API eine Art Kanal darstellt, über den kommuniziert oder interagiert wird, dann bezeichnet REST die Regeln und Strukturen, nach denen dieser Austausch abgewickelt wird. Bevor wir auf diese näher eingehen, muss jedoch gesagt sein, dass der Begriff, d. h. seine Definition, heute nicht mehr klar umrissen ist.

 

Ins Leben gerufen wurde der Begriff von Roy Fielding in seiner Dissertation aus dem Jahre 2000 mit dem Titel “Architectural Styles and the Design of Network-based Software Architectures”. Darin entwarf er unter der Bezeichnung REST eine bestimmte “Bauweise” von Webanwendungen, die über HTTP kommunizieren. Doch seine Ausführungen lassen sich nicht problemlos auf die heutige Verwendung des Begriffs REST API übertragen. Von den fünf Gesetzen, die eine Anwendung laut Fielding einhalten muss, um als RESTful zu gelten, können nach heutigem Gebrauch ein oder zwei gebrochen werden und trotzdem wird von einer REST API gesprochen.

 

An dieser Stelle seien darum nur die drei wichtigsten genannt:

 

1.    Client-Server-Architektur: Der Client stellt die Anfrage an den Server, wobei beide Systeme völlig getrennt voneinander existieren und sich unabhängig weiterentwickeln können. Denke hierfür einfach daran, was passiert, wenn du z. B. www.friendventure.de in die Adresszeile deines Browsers eingibst. Als Client stellst du in Form der URL eine Anfrage an den Server, auf dem die Website gehostet wird. Dieser schickt sie dir zurück, woraufhin sie im Browser angezeigt wird.

 

2.    Statelessness: Über die Interaktion zwischen Client und Server werden keinerlei Informationen auf dem Server hinterlassen (also über den state der Interaktion). Jede Kommunikation wird auf der gleichen Grundlage ausgeführt.

 

3.    Layered System: Die Anfrage des Client kann den Server direkt erreichen, es können jedoch auch Server zwischengeschaltet sein (etwa aus Sicherheitsgründen). Welche “Schicht” der Client ansteuert, bleibt diesem verborgen.

 

Keine Sorge, technischer wird es nicht mehr. Es ist jedoch wichtig zu wissen, dass nicht jede Schnittstelle diesen Einschränkungen unterliegt, sondern eben nur REST APIs. Nun da geklärt wäre, was hinter der kryptischen Buchstabenfolge steckt, geht es weiter mit ihrer Funktionsweise.

 

 

 

 

 

Webanwendung in zwei Regionen mit Table Storage-Failover

 

Diese Architektur bietet eine Hochverfügbarkeitslösung für eine Webanwendung, die große Datenmengen verwendet. Eine sekundäre Region dient als Standby für die primäre Region, wodurch die Verfügbarkeit verbessert wird. Die primäre Region sendet ihre Daten an die sekundäre Region und nutzt dazu die integrierten Replikationsfunktionen von Azure Storage.

 

Daten werden in Tabellen in Azure Table Storage gespeichert. Wie bei jedem Azure Storage-Dienst werden Table Storage-Daten synchron dreimal in der primären Region repliziert. Damit sie für den Standbymodus verfügbar sind, werden sie außerdem dreimal asynchron in die sekundäre Region repliziert. Informationen zur Azure Storage-Replikation finden Sie unter Azure Storage-Redundanz.

 

Die Architektur enthält einen Cache für die Tabellen, um die Zugriffslast zu reduzieren und die Anwendungsreaktion zu verbessern.

 

Mögliche Anwendungsfälle

 

Die Architektur kann für jede Anwendung geeignet sein, die große Datenmengen verwendet, die immer verfügbar sein müssen. Beispiele hierfür sind Apps, die für Folgendes verwendet werden:

 

·        Nachverfolgen des Ausgaben- und Einkaufsverhaltens von Kunden.

 

·        Wettervorhersage.

 

·        Anbieten oder Implementieren intelligenter Verkehrssysteme oder Verwenden von intelligenter Technologie zur Verkehrsüberwachung.

 

·        Analyse von Fertigungsdaten im Internet der Dinge (IoT).

 

·        Anzeigen von Daten intelligenter Verbrauchsmesser oder Verwenden intelligenter Technologie zum Überwachen von Verbrauchsdaten.

 

Architektur

 

1.     Der Client authentifiziert sich mit Azure Active Directory (Azure AD) und erhält Zugriff auf Webanwendungen, die in Azure App Service gehostet sind.

 

2.     Mithilfe von Azure Front Door, einer Firewall und einem Layer-7-Lastenausgleich wird der Benutzerdatenverkehr bei einem regionalen Ausfall auf die Standbyregion umgeschaltet.

 

3.     Azure App Service hostet Websites und Web-APIs mit REST-Unterstützung. AJAX-Anwendungen, die die APIs nutzen, werden in Browserclients ausgeführt.

 

4.     Funktions-Apps zur Verarbeitung von Hintergrundaufgaben werden von Web-APIs delegiert. Die Aufgaben sind in Azure Queue Storage Warteschlangen eingereiht.

 

5.     Die von Azure Functions gehosteten Funktions-Apps führen die Hintergrundaufgaben aus, die durch die Nachrichten in der Warteschlange ausgelöst werden.

 

6.     Tabellendaten für die Funktions-Apps sind in Azure Cache for Redis zwischengespeichert. Dadurch wird die Datenbankaktivität ausgelagert und eine schnellere Verarbeitung in den Funktions-Apps und Web-Apps erreicht.

 

7.     Azure Table Storage enthält die von den Webanwendungen verwendeten Daten.

 

8.     Table Storage unterstützt die synchrone Replikation von Daten über Verfügbarkeitszonen in der Region hinweg, um Ausfälle von Rechenzentren abzumildern. Ferner wird asynchrone Replikation zum Replizieren von Daten in verschiedene Azure-Regionen verwendet, um regionale Ausfälle zu entschärfen und die Anwendungsverfügbarkeit zu verbessern.

 

Komponenten

 

·        Azure Active Directory ist ein mehrmandantenfähiger Identitäts- und Zugriffs-verwaltungsdienst, der mit einem lokalen Verzeichnis synchronisiert werden kann.

 

·        Azure DNS ist ein Hochverfügbarkeits-Hostingdienst für DNS-Domänen, der für Apps schnelle DNS-Abfragen und schnelle Updates von DNS-Einträgen bereitstellt. Die Verwaltung von Azure DNS ähnelt der Verwaltung anderer Azure-Dienste und verwendet die gleichen Anmeldeinformationen, APIs, Tools und Abrechnungsverfahren.

 

·        Azure Front Door ist ein sicheres Content Delivery Network (CDN) und ein Lastenausgleich mit sofortigem Failover. Es wird am Edge nahe an den Benutzern betrieben und beschleunigt die Inhaltsbereitstellung, während Apps, APIs und Websites vor Cyberbedrohungen geschützt werden.

 

·        Azure App Service ist ein vollständig verwalteter Dienst zum Erstellen, Bereitstellen und Skalieren von Web-Apps. Sie können Apps mit .NET, .NET Core, Node.js, Java, Python oder PHP erstellen. Die Apps können in Containern oder unter Windows oder Linux ausgeführt werden. Bei einer Mainframemigration können die Front-End-Bildschirme oder Weboberflächen als HTTP-basierte REST-APIs programmiert werden. Sie können getrennt werden und zustandslos sein, um ein auf Microservices basierendes System zu orchestrieren. Weitere Informationen zu Web-APIs finden Sie unter RESTful-Web-API-Design.

 

·        Azure Functions stellt eine Umgebung zum Ausführen kleiner Codeteile bereit, die als Funktionen bezeichnet werden, ohne dass eine Anwendungsinfrastruktur eingerichtet werden muss. Sie können damit Massendaten verarbeiten, Systeme integrieren, mit IoT arbeiten und einfache APIs und Microservices erstellen. Mit Microservices können Sie Server erstellen, die eine Verbindung mit Azure-Diensten herstellen und immer auf dem neuesten Stand sind.

 

·        Bei Azure Storage handelt es sich um eine Reihe hochgradig skalierbarer und sicherer Clouddienste für Daten, Apps und Workloads. Dazu gehören Azure FilesAzure Table Storage und Azure Queue Storage. Azure Files ist häufig ein effektives Tool für die Migration von Mainframeworkloads.

 

·        Azure Queue Storage stellt einfache, kostengünstige und stabile Nachrichtenwarteschlangen für große Workloads zur Verfügung.

 

·        Azure Table Storage ist ein NoSQL-Schlüssel-Wert-Speicher für die schnelle Entwicklung, der sehr umfangreiche halbstrukturierte Datasets verwendet. Die Tabellen sind schemalos und passen sich an geänderte Anforderungen an. Der Zugriff ist für viele Arten von Anwendungen schnell und kostengünstig und in der Regel preiswerter als andere Arten von schlüsselbasiertem Speicher.

 

·        Azure Cache for Redis ist ein vollständig verwalteter In-Memory-Cachedienst und Nachrichtenbroker für die gemeinsame Nutzung von Daten und Zuständen durch Computeressourcen. Er umfasst sowohl die Open-Source-Lösung Redis als auch ein kommerzielles Produkt von Redis Labs als verwaltete Dienste. Sie können die Leistung von Anwendungen zur Onlinetransaktionsverarbeitung mit hohem Durchsatz verbessern, indem Sie sie so gestalten, dass sie skalierbar sind und einen In-Memory-Datenspeicher wie Azure Cache for Redis nutzen.

 

Alternativen

 

·        Azure Traffic Manager leitet auf der Grundlage der von Ihnen gewählten Routing-methoden für Datenverkehr eingehende DNS-Anforderungen über die globalen Azure-Regionen hinweg weiter. Er bietet darüber hinaus automatisches Failover und Leistungsrouting.

 

·        Azure Content Delivery Network speichert statische Inhalte auf Edgeservern zwischen, um eine schnelle Reaktion zu ermöglichen, und verwendet Netzwerkoptimierungen, um die Reaktion für dynamische Inhalte zu beschleunigen. Content Delivery Network ist besonders bei einer globalen Benutzerbasis nützlich.

 

·        Azure Kubernetes Service (AKS) ist ein vollständig verwalteter Kubernetes-Dienst für die Bereitstellung und Verwaltung von containerisierten Anwendungen. Damit können Sie eine Microservicearchitektur implementieren, deren Komponenten bei Bedarf unabhängig voneinander skaliert werden.

 

·        Azure Container Instances bietet eine schnelle und einfache Möglichkeit zum Ausführen von Aufgaben, ohne die Infrastruktur verwalten zu müssen. Dies ist nützlich während der Entwicklung oder beim Ausführen ungeplanter Aufgaben.

 

·        Azure Service Fabric ist eine Plattform zum Skalieren und Orchestrieren von Containern und Microservices.

 

·        Azure Service Bus ist ein zuverlässiger Cloudmessagingdienst für einfache Hybridintegrationen. Er kann in dieser Architektur anstelle von Queue Storage verwendet werden. Weitere Informationen finden sie unter Storage-Warteschlangen und Service Bus-Warteschlangen – Vergleich und Gegenüberstellung.

 

Überlegungen

 

·        Es bestehen Leistungsgrenzen für Table Storage, die durch Hinzufügen von Speicherkonten überwunden werden können. Die folgenden Umstände erfordern möglicherweise zusätzliche Konten:

 

o   Implementieren von Mehrinstanzenfähigkeit zum Unterstützen mehrerer Kunden

 

o   Unterstützen von Kunden mit höheren Transaktionsraten

 

o   Unterstützen von Kunden mit großen Datasets

 

o   Beschleunigen des Datenzugriffs durch Verteilen von Daten auf mehrere Speicherkonten

 

o   Aufteilen von Daten in heiße, kalte und Archivebenen

 

o   Erstellen von Kopien von Daten zu Sicherungs- und Berichterstellungszwecken

 

·        Table Storage-Replikation ist in einigen Azure-Regionen nicht verfügbar.

 

·        Die Daten in einer sekundären Region haben Eventualkonsistenz, was bedeutet, dass es eine Verzögerung zwischen dem Zeitpunkt, zu dem ein Update in einer primären Region erfolgt, und dem Zeitpunkt gibt, zu dem es in der sekundären Region sichtbar wird. Da die Replikation von der primären Region zur sekundären Region asynchron ist, können Daten verloren gehen, wenn die primäre Region ausfällt und nicht wiederhergestellt wird. Derzeit gibt es keine Vereinbarung zum Servicelevel (SLA) darüber, wie lange die Replikation von Daten zur sekundären Region dauert. Weitere Informationen finden Sie unter Azure Storage-Redundanz.

 

Nächste Schritte

 

·        Architekturstil „Web-Warteschlange-Worker“

 

·        Strategien für die Datenpartitionierung

 

·        Verwenden von Georedundanz zum Entwerfen von hochverfügbaren Anwendungen

 

·        Richtlinien für den Entwurf von Tabellen

 

Zugehörige Ressourcen

 

·        Erstellen eines skalierbaren Systems für große Datenvolumen

 

·        RESTful-Web-API-Design