tom's networking guide
 
Anzeige

Test Talend Integration Cloud

Der Flow Builder

Um die Flows zu bearbeiten steht der so genannte Flow Builder bereit. Dieses Tool ermöglicht es den Anwendern, dem Flow Datenquellen und -senken hinzuzufügen und Funktionen wie Mapper oder auch Daten-Standardisierer und Validier einzubinden. Damit ist es möglich, die Daten an das Format des Zielsystems anzupassen und um Informationen wie beispielsweise die zuvor genannten Postleitzahlen zu ergänzen.

Die Einträge der einzelnen Flows umfassen unter anderem auch die "Run History", die Aufschluss darüber gibt, ob es beim Abarbeiten der Daten zu Problemen kam. (©Smartmedia PresSservice)

Da es sich beim Flow Builder um die webbasierte Entwicklungsumgebung der Integration Cloud handelt, ist es sinnvoll, an dieser Stelle etwas genauer auf die Arbeit mit dem Werkzeug einzugehen. Möchte ein Anwender einen neuen Flow erzeugen, so hat er mit dem Tool die Möglichkeit, dem Flow zunächst einmal einen Namen zu geben. Im Test wollten wir zu diesem Zeitpunkt die Inhalte einer Excel-Tabelle in unseren Salesforce-Account hochladen. Wir nannten den Flow also "Migration from Excel to Salesforce" und gaben ihm bei der Gelegenheit auch gleich eine kurze Beschreibung mit. Anschließend wählten wir unter "Choose a Source" unsere Excel-Datei als Datenquelle aus. Da sich diese in einem Dropbox-Konto befand, selektierten wir als Quell-Icon den Eintrag "dopbox_file_download_source" und gaben unserer Quelle den Pfad zur Datei innerhalb der Dropbox und das passende Dropbox Access-Token an. Danach ging es daran, die Informationen aus der Excel-Datei so umzuwandeln, dass das System sie modifizieren konnte. Dazu kam der Eintrag "xlsx_file_toColumns_process_step" zum Einsatz. Dieser wandelte, wie der Name schon sagt, die in dem Excel-File vorhandenen Einträge in Spalten um. Zu diesem Zeitpunkt konnten wir unter "Preview Data" bereits sehen, welche Daten in dem Sheet vorhanden waren. Bei den genannten Spalten handelt es sich um das interne Format der Integration Cloud. In diesem Format werden die Daten im Speicher gehalten und gestreamt.

Im nächsten Schritt definierten wir unser Ziel, also unseren Salesforce-Account. Hierfür verwendeten wir die Aktion "salesforce_contact_upsertBulk_target". Diese benötigt neben den Kontoangaben auch noch ein Salesforce-Sicherheitstoken, damit sie richtig funktioniert. Sobald die erforderlichen Einträge vorgenommen worden waren, konnten wir über den Mapper die Schemadaten anlegen, die wir zuvor über den "Preview Data"-Eintrag herausgefunden hatten, also Felder für den Firmennamen, den Namen des Ansprechpartners, die Adresse und ähnliches. Zum Schluss wiesen wir diese Felder den dazugehörigen Salesforce-Datenbankeinträgen zu, damit das System wusste, wo es die Daten hinschreiben sollte. Alternativ ist es auch möglich, das Schema über die Funktion "Guess Schema" in Erfahrung zu bringen. Diese fragt nach der zu verwendenden Quelldatei, öffnet diese und liest dann das Schema daraus aus.

Mit dem Zuweisen der Inhalte zu Feldern war die Definition des Flows abgeschlossen und wir konnten einen ersten Testlauf vornehmen. Dabei zeigte uns das System an, wie viele Datensätze es aus der Datei auslas und wie viele Datensätze hochgeladen wurden. Bei unserem einfachen Beispiel waren diese Zahlen identisch, es ist aber auch möglich, kompliziertere Flows zu definieren, die beispielsweise sämtliche Ländernamen in allen Datensätzen vereinheitlichen. Letzteres ergibt beispielsweise Sinn, wenn in den Quelldaten unterschiedliche Bezeichnungen für ein und dasselbe Land Verwendung finden, wie zum Beispiel "United Kingdom" und "Great Britain". Kommen solche Modifikationsmethoden zum Einsatz, so kann es bei der Namenserkennung oder bei der Umwandlung zu Fehlern kommen, so dass einige Einträge auf der Strecke bleiben. Die "Preview Data"-Funktion zeigt in diesem Fall genau an, welche Informationen bei welchem Schritt hängen bleiben und helfen so bei der Fehlersuche. Genauso ist es auch möglich, mit einem Flow gezielt Daten auszufiltern. In diesem Fall dürfen die Zahlen der Ein- und der Ausgehenden Datenfelder ebenfalls nicht übereinstimmen und auch hier lässt sich die Vorschau nutzen, um festzustellen, ob alles so funktioniert wie erwartet.

Über die "Preview Data"-Funktion können die Anwender jederzeit einsehen, in welcher Form die Daten ? hier unsere Bucheinträge ? bei welchem Arbeitsschritt ankommen. (©Smartmedia PresSservice)

Hat sich bei dem Testlauf herausgestellt, dass alles ordnungsgemäß läuft, so haben die Anwender über den Button "Go Live" die Option, den Flow mit einem Zeitplaner zu versehen, der ihn in regelmäßigen Abständen automatisch startet und so dafür sorgt, dass Änderungen in der Quelle zum Beispiel täglich automatisch zum Ziel übertragen werden. Dabei gibt es nicht nur die Möglichkeit, den Flow einmal, täglich, wöchentlich oder monatlich abzuarbeiten, sondern auch einen Punkt für die Auswahl der Ausführungsumgebung. Dabei stehen die Cloud, eventuell vorhandene Remote Engines, sowie "Cloud Exclusive" und "Cloud Sandbox" zur Verfügung. Bei Cloud Exclusive erhält der Flow eine eigene Arbeitsumgebung, die er mit nichts anderem teilen muss und bei Cloud Sandbox läuft die Arbeit so ähnlich ab wie bei Cloud Exclusive, die Cloud-Umgebung sorgt in diesem Fall aber zusätzlich dafür, dass das System Produktionsdaten nicht gleichzeitig mit Tests abarbeitet.

Im Test ergaben sich mit unserem ersten Flow keine Probleme und wir konnten ihn sofort "Live" schalten. Dabei richteten wir ihn so ein, dass er täglich ablief und das funktionierte von Anfang an wie erwartet. Treten Probleme auf und müssen die zuständigen Mitarbeiter Änderungen an den Flows vornehmen, so hilft ihnen eine leistungsfähige Versionsverwaltung dabei, die Übersicht zu behalten.

Leserkommentar

Keine Kommentare

Kommentar hinzufügen

* - Pflichtfeld

*





*
*
Rubriken
Anzeige
Anzeige
Anzeige
Anzeige
Mehr zum Thema
Test Datacore SANsymphony V R8
Mit SANsymphony-V bietet Datacore eine leistungsfähige Software-Plattform zum Bereitstellen, Teilen, Migrieren, Replizieren, Erweitern, Konfigurieren und Upgraden von Speicher ohne Verzögerungen und Downtime. IAIT hat sich angesehen, was die aktuelle Vers [mehr]
Test Entuity Eye of the Storm 2011 Enterprise
Je umfangreicher die Netzwerke, desto schneller verlieren Administratoren ohne geeignete Tools den Überblick. Entuity Eye oft he Storm 2011 bietet verschiedene Methoden an, mit denen die bestehende Infrastruktur zumindest teil-automatisch erfasst werden k [mehr]
Test Kroll Ontrack PowerControls 6.0
Exchange- und Sharepoint-Server sind längst in vielen Unternehmen unverzichtbarer Bestandteil der Unternehmens-Infrastruktur. Die unabdingbaren Backup-Szenarien werden dabei aber oft vernachlässigt. Hauptsache es gibt ein Backup, wie erfolgreich sich Date [mehr]
Workshop Medienspeicherung und Verteilung
Eigene Videos, Digitalfotos und MP3-Song immer und überall hören und sehen, ohne langes Suchen durch zentrale Medienspeicherung und Medienabruf vom PC, TV-Gerät und Handy aus. [mehr]
Test CA ARCserv Backup r12
Die jüngste Version der Backup-Software für Unternehmen weist im Management- und Sicherheitsbereich viele neue Funktionen auf. Was das Produkt in der Praxis leistet, hat sich IAIT angesehen. [mehr]
High-Speed-PLC-Modems der 200-mbps-Klasse
Powerline-Modems der jüngsten Generation versprechen Triple-Play-taugliche Heimvernetzung ohne neue Kabel ? die Hausstromleitung genügt. Wir haben getestet, wie viele der versprochenen 200 MBit/s in der Realität durch Stromnetz flitzen und ob Video- und [mehr]
Anzeige