Motoren der Automatisierung: APIs, die Cloud und Edge Computing
HeimHeim > Blog > Motoren der Automatisierung: APIs, die Cloud und Edge Computing

Motoren der Automatisierung: APIs, die Cloud und Edge Computing

Sep 03, 2023

Auf der Transform Edge Computing-Konferenz von Zededa wurde hervorgehoben, warum es keinen besseren Ort zum Rechnen gibt als die Cloud und wie OT-Systeme davon profitieren können.

Neue Wege zur Herangehensweise an die digitale Transformation der Operational Technology (OT) standen im Mittelpunkt der dritten Transform Edge Computing-Konferenz von ZEDEDA im März. Zu den bei Transform 2023 behandelten Themen gehörten unter anderem neue Ansätze für die digitale Transformation, Möglichkeiten zur Verbesserung der Sicherheit für Daten und Anwendungen am Edge sowie der Umgang mit Herausforderungen bei Legacy-Software. ZEDEDA wurde 2017 gegründet, um Edge Computing zu ermöglichen, und nutzte diese virtuelle Veranstaltung, um seine Kunden, Partner und Interessenten über das Internet der Dinge (IoT) sowie Cloud und Edge Computing zu informieren. Gründer und CEO Said Ouissal erörterte den Stand des Edge Computing und sagte, dass Industrieunternehmen das Internet der Dinge (IoT) stark einsetzen, um Daten aus ihren Anlagen, Maschinen und Fahrzeugen zu extrahieren: „Jede Anwendung, die in der Cloud ausgeführt werden kann, wird in der Cloud ausgeführt, weil es einfacher ist.“ und es ist dort einfacher, Apps zu erstellen, zu entwickeln und auszuführen als anderswo“, prognostizierte er. Da alle Daten von IoT-Geräten online eingehen, wäre es unmöglich, sie alle in die Cloud hochzuladen. Die Daten müssen jedoch noch analysiert werden. „Statt also zu versuchen, die Daten in die Cloud zu bringen, wird die Cloud bis an den Rand des Netzwerks gedrängt“, sagte Ouissal. „Das ist es, was wir als Edge Computing definieren“, sagte Ouissal, wie das Cloud-Erlebnis ist An den Rand gedrängt, geht es von stark zentralisierten Clouds und Cloud-nativen Rechenzentren zu regionalen und lokalen Rechenzentren. „Während der Standort der Datenverarbeitung unterschiedlich ist, ist die Umgebung der Datenverarbeitung immer noch ziemlich dieselbe.“ Die Lösung von ZEDEDA sei speziell für die Verteilung mithilfe einer offenen Architektur konzipiert, fügte er hinzu. Dr. Mahader Satya von der Carnegie Mellon University sagte: „Die Cloud bietet Rechenelastizität. Sie fragen nach mehr Rechenleistung und erhalten sie bei Bedarf. Möglicherweise müssen Sie dafür bezahlen, aber im Grunde handelt es sich um eine unendliche Rechenquelle. Das ist die Abstraktion.“ Es ist auch der sicherste Ort, an dem Sie Ihre Daten aufbewahren. Wenn Sie Daten archivieren möchten, die Sie in 100 Jahren noch abrufen können, legen Sie sie in die Cloud. Die Cloud stellt eine extreme Konsolidierung dar. Die Skaleneffekte werden in der Cloud maximal ausgenutzt . Es gibt keinen anderen Ort im System, der Computing so günstig anbietet, daher sind die Kosten pro Computing in der Cloud am niedrigsten.“ „Apps werden viel spezifischer für Menschen und insbesondere für die Dinge, denen sie dienen“, sagte Ouissal. „Die Anzahl der Standorte oder Knoten könnte Zehntausende oder sogar Millionen betragen.“ Stellen Sie sich Maschinen, Fahrzeuge, Produktionslinien, Bohrstandorte und Umspannwerke vor, die alle mit Edge Computing ausgestattet sind. Wir nennen diesen Kantentyp „verteilte Kante“. Dies ist der Edge, der unserer Meinung nach derzeit der am schnellsten wachsende auf dem Markt ist und bei vielen Unternehmen in großem Umfang zum Einsatz kommt. Die Nutzung all dieser Ökosysteme erfordert eine Möglichkeit, sie zu orchestrieren und zu verwalten. Das ist was wir machen. Wir bieten Edge-Orchestrierung und -Management für alle, die verteiltes Edge-Computing einsetzen möchten.“ (Abbildung 1).

Rob Tiffany, Direktor bei Digital Insights, moderierte eine Diskussionsrunde zum Thema digitale Zwillinge. „Ich habe die Sache mit dem digitalen Zwilling erst 2016 mit Lumata gemacht, aber mir war klar, dass digitale Zwillinge wahrscheinlich das Herzstück eines IoT-Systems sein sollten. IoT ist nur eine Installation, die Daten in dieses digitale Ding einspeist“, sagte Tiffany .“ Matt Mohajer, Digital Program Manager bei SLB, fügte hinzu: „Natürlich wollen wir sicherstellen, dass wir eine virtuelle oder digitale Darstellung eines physischen Dings haben, egal ob es sich bei dem Ding um ein Space Shuttle, ein Ventil, ein einzelnes Gerät oder einen anderen handelt gesamte Anlage. Es gibt mehrere Schlüsselelemente, die ihn eher zu einem echten Zwilling machen. Es gibt das Element der Echtzeit-Datenkommunikation. Auch die bidirektionale Kommunikation ist wichtig, aber Sie möchten [zunächst] sicherstellen, dass Sie in der Lage sind, die Daten abzurufen. [Dann] führen Sie Ihre Analyse durch, oder die Maschine führt die Analyse durch, wandelt diese dann in Erkenntnisse um und ergreift auf der Grundlage dieser Erkenntnisse Maßnahmen. Für mich sind das die Schlüsselelemente, die es zu einem digitalen Zwilling machen.“

James Teal, Director of System Architecture Cloud and Edge bei Rockwell Automation, fügte hinzu: „Während wir immer mehr unserer Angebote in die Cloud verlagern, sucht das Team hier bei Rockwell nach Antworten auf die Frage: „Wie erhält man Daten in diesen OT-Netzwerken effektiv?“ neigt dazu, billig kontrolliert zu werden?' Es ist nicht nur die Ansicht der Anlage mit einer Linie, und das Förderband bewegt sich und pumpt oder bewegt Flaschen. Es ist wirklich der Prozesszwilling. Es gibt mehrere Arten von Zwillingen, die Teil davon werden. Wir versuchen, einen Weg zu finden um diese Assets auf Geräteebene zu kuratieren, damit sie von einer ganzen Reihe anderer Dienste und anderen Zwillingen auf sehr effektive Weise genutzt werden können, einschließlich der Art und Weise, wie unsere Cloud-Produkte mit Dingen wie Geräten und Controllern interagieren.“

Padraig Stapleton, Vizepräsident für Technik bei ZEDEDA, moderierte eine Diskussion mit Diskussionsteilnehmern von BOBST, IBM und Emerson, die über umfangreiche Erfahrung bei der Bereitstellung großer Lösungen am Edge verfügen und Anwendungsprogrammierschnittstellen (APIs) zum Kernstück der Bereitstellung und Skalierung von Lösungen machen. „APIs sind der Motor der Automatisierung“, sagte Stapleton. „Jede heutige Softwarelösung erfordert sie. Sie ersetzen das, was wir früher mit UIs [Benutzeroberflächen] gemacht haben. Die API wird zum wichtigsten Benutzeragenten für Menschen, die Lösungen am Rande bereitstellen. Sie ermöglichen es uns, Daten zu monetarisieren.“ , um Partnerschaften sowohl mit unseren Partnern als auch mit unseren Kunden zu knüpfen. Es ist auch eine Kostensenkung.“Murali Gandluru, Vizepräsident für Strategie, Produkt und GTM bei IBM, sagte: „Wir glauben, dass der Edge eine entscheidende Rolle dabei spielen wird, wie wir.“ Bauen Sie das verteilte Hybrid-Multi-Cloud-Unternehmen IT [Informationstechnologie] auf. Das ist ein wichtiger Teil der IBM-Strategie – Hybrid Cloud und KI [künstliche Intelligenz]. Eines der Dinge, die uns im Infrastrukturbereich aufgefallen sind, ist, dass es eine ständige Pendelbewegung zwischen ihnen gibt zentralisierte Lösungen versus verteilte Lösungen. Verteilt kommt immer wieder zurück. Man muss einen auf Standards basierenden Ansatz vorantreiben, und das ist für IBM sehr wichtig – ein offener, auf Standards basierender Ansatz. Der beste Ansatz ist es, ein deklaratives versus imperatives Modell zur Verwaltung dieser Lösungen voranzutreiben ist ein API-gesteuertes Modell, das wir in alle unsere Produkte einbetten und verwenden.“ Neil Wang, Produktmarketingmanager bei Emerson, sagte: „Wir sammeln viele Daten aus der Cloud für die Herstellung unserer Geräte. Wir reflektieren diese Daten auf dem Edge, damit unsere Benutzer die Daten frei nutzen und dafür sorgen können, dass die Daten genauso viele Erkenntnisse generieren wie sie selbst.“ müssen. Wir sprechen mit den Geräten, um Ventile auszuführen und Motoren zu modulieren. Wir sammeln Daten von ihnen und von einer großen Anzahl von Sensoren in der gesamten Anlage und verwenden die Signale, um Steuerungen auszuführen. Aber die Signale könnten für andere Zwecke wie Zuverlässigkeit, Sicherheit, Produktion und Planung verwendet werden. Das bedeutet, dass wir die Daten teilen müssen, und schließlich würden die Daten von Personen verwendet, die keine traditionellen Betreiber sind.“ „Das Kontrollsystem ist Teil einer kritischen Infrastruktur und befasst sich direkt mit dem Herstellungsprozess. Wir müssen die Datenbereitstellung von der Durchführung der Kontrollen trennen“, fügte Wang hinzu.

Leonard Lee, Gründer und Executive Analyst bei neXt Curve, moderierte eine Podiumsdiskussion, die sich auf die Beziehung zwischen Edge und Cloud konzentrierte. Lee sagte, wir hören ständig Kanten. „Wir hören es seit mehr als einem Jahrzehnt, aber es scheint immer noch, dass es für viele verschiedene Menschen viele verschiedene Dinge bedeutet.“ „Das Versprechen der Cloud war endlose Rechenleistung und Speicherung, und wenn wir an den Rand kommen, ist das eine andere Geschichte“, sagte Bryan Ashley, CTO von WW Field bei Aviatrix. „Die andere Komponente ist die Bandbreite, je nachdem, um welche Art von Edge-Computing-Standort wir sprechen. Das kann eine echte Herausforderung sein. Wenn wir die Edge-Fähigkeiten und die Story ein paar Jahre später weiterentwickeln, müssen viele Entscheidungen getroffen werden.“ muss darauf eingehen. „Wir möchten zur Bereitstellung der Plattform beitragen“, sagte Marilyn Basanta, Senior Director, Produktmanagement, Edge Computing bei VMware. „Wenn Sie die Sensordaten erhalten, können Sie diese in unsere Edge-Computing-Plattform einspeisen und die Vorteile von VMware nutzen. Wir haben beispielsweise Rabbit MQ, das jetzt Messaging und Streaming durchführen kann, sodass wir diese Daten übernehmen können. Sie können sie mit verarbeiten.“ Ihre neuen Edge-Data-Apps nutzen unsere Daten. Mit unseren Angeboten in der Fertigung erreichen wir jetzt neue Teile der Fertigungshalle.“ „Wir haben diese große Ankündigung mit Audi, die dazu beitragen wird, die Art und Weise, wie sie ihre Autos herstellen, zu revolutionieren“, fügte Basanta hinzu. „Sie haben viele IPCs. Wir helfen ihnen dabei, Arbeitslasten zu konsolidieren, die je nach Latenz und Fehlertoleranz ordnungsgemäßes Echtzeit-Computing ermöglichen.“ Bei der Fertigung gehe es vor allem um vorausschauende Wartung, Qualitätskontrolle und die Verbesserung der Geschäftseffizienz, denn jede Minute einer stillgelegten Produktionslinie kostet Tausende von Dollar, fügte sie hinzu.

„Edge ist eine Community und hat zwei Arten von Edges definiert: einen User Edge und einen Service Provider Edge“, sagte Arpit Joshipura, General Manager, Networking, Edge und IoT bei der Linux Foundation und Moderator der „Role of Open Source“. in Edge Computing“-Podiumsdiskussion. Ein User Edge wird vom Benutzerdienstanbieter betrieben, sagte Joshipura, und es gibt drei Implementierungen: eine Implementierung, die extrem eingeschränkt ist, wie etwa ein eingebetteter Mikrocontroller; der Smart Device Edge, der eher IoT-Gateways ähnelt; und der Rand des Rechenzentrums vor Ort, der weiterhin in der Kontrolle des Benutzers liegt. „Edge Computing ist irrelevant, wenn Ihre Reaktionszeit in Bezug auf die Latenz nicht weniger als 20 Millisekunden beträgt“, sagte Joshipura. „Menschen bringen IoT und Edge im selben Satz zusammen. Ein Sensor, der jede Woche aufwacht und Daten in eine Cloud speichert, ist keine Edge-Anwendung. Es ist eine IoT-Anwendung. Nicht alles IoT ist Edge.“ Joshipura fügte hinzu: „Wenn Sie sich an einen erinnern.“ Verwenden Sie die Terminologie, die die Community verwendet. Dies ist eine der Stärken von Open Source und der offenen Community, da sie nicht von einem Anbieter oder einem Analysten vorangetrieben wird. Sie wird von der Community der Teilnehmer übernommen. Damit bin ich einverstanden Einführung des Open-Source-Teils des Edge, den wir „LF Edge“ nennen.“ Cloud oder Betriebssystem. Durch die Zusammenführung von Branchenführern wird LF Edge einen gemeinsamen Rahmen für Hardware- und Softwarestandards und Best Practices schaffen, die für die Aufrechterhaltung aktueller und zukünftiger Generationen von IoT- und Edge-Geräten von entscheidender Bedeutung sind. Erik Nordmark, Gründer und CTO von ZEDEDA, fragte: „Inwieweit unterscheidet sich Edge von der Verwendung von Open Source in der Cloud und im Rechenzentrum? Denn einer der Schlüsselaspekte von Open Source besteht darin, dass man tatsächlich viel mehr Sicherheitsbedenken hervorrufen kann.“ auf verschiedenen Ebenen aufgrund der Transparenz, die man mit Open Source erhält. Es ist sehr leistungsstark, verschiedene Anwendungsfälle einzuführen, schnell voranzutreiben und bereitzustellen – schnelle Innovation unter Verwendung von Bausteinen, auf die man Zugriff hat.“ Larry Morris, Leiter des Produktmanagements bei SUSE, fügte hinzu: „Ich habe kürzlich gelesen, dass mehr als 56 Millionen Entwickler zu Open Source beigetragen haben. In den letzten Jahren haben wir die meisten der sehr großen Technologieunternehmen gesehen, sei es nun.“ Microsoft, Google, IBM, Amazon, Facebook oder Intel beginnen, Beiträge zu Open-Source-Projekten zu leisten, sie zu nutzen und zu ihnen beizutragen. Das ist wirklich der Kern dessen, warum Sie die Innovation oder die Vielfalt sehen. Es gibt so viele verschiedene Open-Source-Projekte -Source-Projekte. Was auch immer Ihr Anwendungsfall ist, was auch immer Ihr besonderer Bedarf ist, es gibt wahrscheinlich eine Open-Source-Alternative zu einer proprietären Software, die Sie nutzen können und an der viele Menschen mitwirken.“ Bild mit freundlicher Genehmigung von ZEDEDA

Jack Smith ist leitender Redakteur für Automation.com und das InTech-Magazin von ISA. Er war mehr als 20 Jahre lang in der Industrie tätig – von der Stromerzeugung über Instrumentierung und Steuerung bis hin zur Automatisierung und von der elektronischen Kommunikation bis hin zu Computern – und ist seit mehr als 25 Jahren als Fachjournalist tätig.

Schauen Sie sich unsere kostenlosen E-Newsletter an, um weitere tolle Artikel zu lesen.