Anpassung von API-Strategien an dynamische AI-Trends
September 26, 2023
In der heutigen sich schnell entwickelnden technologischen Landschaft erhält Künstliche Intelligenz (KI) derzeit viel Aufmerksamkeit. Überall in den sozialen Medien sieht man neue KI-Startups, Prompt-Engineering-Tools und Lösungen für große Sprachmodelle (LLMs). Und das ist nicht überraschend, denn KI fühlt sich fast wie Magie an! Zum Beispiel hat ChatGPT wirklich alle begeistert. Es erreichte 100 Millionen Nutzer in nur 2 Monaten nach seiner Veröffentlichung und wurde damit unglaublich schnell super populär.
Jetzt fragen sich alle: Was bedeutet diese KI-Welle für mich, meine Arbeit und meine Produkte? Genauer gesagt, wie wirkt sie sich auf diejenigen aus, die an vorderster Front stehen und digitale Produkte und Anwendungen mit APIs entwickeln? Dieser Artikel untersucht, was der KI-Trend für diejenigen von uns bedeutet, die digitale Tools mit APIs erstellen.
APIs machen KI für alle zugänglich
Große Unternehmen haben schnell spezielle KI-Forschungslabore eingerichtet und Datenwissenschaftler rekrutiert, um KI-Modelle zu entwickeln. Aber was ist mit kleineren Unternehmen, die nicht über die massiven Rechenressourcen und GPUs für ein KI-Forschungslabor verfügen? Sollen sie einfach zusehen, wie größere Firmen die KI-Revolution nutzen? Die Antwort lautet nein. Für viele KI-Anwendungen, insbesondere solche, die sich auf natürliche Sprache konzentrieren, ist kein spezielles KI-Forschungslabor erforderlich. Stattdessen können vorhandene öffentliche KI-Modelle, LLMs, genutzt werden. Das bedeutet, dass Entwickler keine KI-Experten sein müssen – sie müssen lediglich mit APIs vertraut sein. Durch Prompt-Engineering, Feinabstimmung und Embeddings können diese Modelle an spezifische Anforderungen angepasst werden.
Das Zauberwort hier ist "APIs". APIs kapseln die Komplexität ihrer Inhalte und machen KI-Modelle für alle Entwickler zugänglich, unabhängig von ihrer Expertise in KI. Diese Trennung der Zuständigkeiten stellt sicher, dass, während einige wenige Datenwissenschaftler KI-Modelle erstellen und als APIs verpacken, eine größere Anzahl von Entwicklern diese Modelle in ihre Anwendungen integrieren kann, um "intelligente" Lösungen zu schaffen, die in der Verarbeitung natürlicher Sprache versiert sind. Das Ergebnis ist, dass APIs das Spielfeld ebnen und Zugang zu leistungsstarken KI-Modellen für Entwickler aller Unternehmensgrößen bieten.
KI- und API-Muster für moderne Anwendungen
APIs sind der Schlüssel, um Ihr Produkt mit allem anderen zu verbinden. Sie sind großartig darin, verschiedene Softwarekomponenten zu verknüpfen. Wenn wir über KI sprechen, ist diese Verbindung noch entscheidender, da KI mit verschiedenen Datenquellen und Tools zusammenarbeiten muss, um nützlich zu sein. Moderne Anwendungen nutzen konsequent sowohl KI als auch APIs. Während KI Anwendungen "Intelligenz" verleiht und es ihnen ermöglicht, menschliche Sprache und Absichten zu verstehen, erleichtern APIs den Datenzugriff und die Systemverbindungen. Diese Technologien sind nicht nur parallele Entitäten – ihre kombinierte Nutzung kann synergetisch sein. Es gibt drei primäre Muster für ihre Integration:
Muster 1: KI-Dienste über API aufrufen
KI-Modelle wie OpenAI ChatGPT werden oft als APIs verpackt. Über diese APIs können Entwickler die KI auslösen, indem sie Prompts als Eingabe senden, was es Entwicklern ermöglicht, KI nahtlos in ihre Anwendungen zu integrieren. Eine häufig verwendete Architektur für den Aufbau einer neuen KI-App nutzt auch zwei OpenAI API-Endpunkte wie Vector Embeddings und Chat Completion, wie Sie im folgenden Diagramm sehen:
Diese Methode erstellt zunächst Vektor-Embeddings über die OpenAI API für jedes Eingabedokument (Text, Bild, CSV, PDF oder andere Arten von strukturierten/unstrukturierten Daten), indiziert dann die generierten Embeddings für schnellen Abruf und speichert sie in einer Speicherlösung wie Vektor-Datenbanken für schnellen Abruf. Diese Dokumente werden dann zusammen mit der Frage des Benutzers als Prompt an ChatGPT übermittelt. Mit diesem zusätzlichen benutzerdefinierten Wissen kann ChatGPT intelligent auf Benutzeranfragen antworten.
Muster 2: KI-Dienste rufen APIs auf
Die Ausgabe eines KI-Modells als Antwort auf einen Prompt ist in der Regel textbasiert. Um diese "Ideen" in umsetzbare Ergebnisse zu übersetzen, müssen KI-Dienste APIs aufrufen. Diese APIs können Aktionen in der realen oder digitalen Welt initiieren, wie Zahlungen tätigen, einen Termin buchen, Nachrichten senden oder Raumtemperaturen anpassen. Im Wesentlichen fungieren APIs als die Hände eines KI-Dienstes und ermöglichen es ihm, mit seiner Umgebung zu interagieren. Ein gutes Beispiel dafür sind ChatGPT Custom Plugins. Dieser Artikel erklärt, wie man ein benutzerdefiniertes Plugin für API Gateway mit APISIX erstellt. Da APISIX vor APIs stehen kann, um KI-Anfragen an die vorgesehenen Backend-API-Dienste weiterzuleiten, können wir leicht Sicherheitsmaßnahmen wie Authentifizierung, Autorisierung und Ratenbegrenzung implementieren oder ähnliche Antworten von APIs zwischenspeichern. Es ermöglicht uns auch, wertvolle Einblicke in die API-Nutzung, Leistung und potenzielle Probleme zu gewinnen.
Muster 3: KI verbindet APIs
Vor Jahren war die einzige Möglichkeit, zwei Softwaresysteme oder APIs miteinander kommunizieren zu lassen, das manuelle Programmieren. Softwareingenieure erstellten komplexe und fragile Code-Sequenzen. Diese Aufgabe war ausschließlich Entwicklern vorbehalten, und jede Änderung bedeutete mehr Programmierung, was zu einem verworrenen Netz aus verbindenden Codes führte.
Mit dem Aufkommen von generativer KI könnte die Interaktion mit einer Integration Platform as a Service (iPaaS) so einfach sein wie eine Anfrage in einem Chat zu stellen. Wenn Sie möchten, dass Daten von einer Plattform mit einer anderen synchronisiert werden, müssen Sie die technischen Details nicht verstehen. Sie müssen lediglich Ihre Anforderungen angeben. Zum Beispiel könnten Sie sagen: "Synchronisieren Sie die Kundenerfolgsbewertungen von Marketo mit Salesforce." oder die KI bitten, Daten von einer API zu einer anderen zu verschieben. Die KI wird dann den Prozess handhaben, seine Kompatibilität testen und Probleme eigenständig beheben. Die APIs, die in Ihren Integrationen verwendet werden, ändern sich ständig, und das kann manchmal Probleme verursachen. KI kann die Gesundheit Ihrer Datenintegrationen überwachen und Fehler kontinuierlich beheben oder einfach Benachrichtigungen in natürlicher Sprache senden, wenn ein Eintrag in einer API-Anfrage oder -Antwort Aufmerksamkeit erfordert.
Sicherung der API-Nutzung
Mit der Fähigkeit von KI, APIs aufzurufen, die Aktionen in der realen oder digitalen Welt initiieren, ist es entscheidend, Sicherheitsvorkehrungen zu implementieren. Diese Sicherung, idealerweise auf der Ebene des API-Management-Systems implementiert, ist erforderlich, um die verantwortungsvolle und sichere Nutzung von KI zu gewährleisten. Dieser Beitrag untersucht, wie API Gateway für ChatGPT-Plugin-Entwickler von Vorteil sein kann, um ihre API-Endpunkte verfügbar zu machen, zu sichern, zu verwalten und zu überwachen.
Zusammenfassend
APIs bieten die perfekten Bausteine für die KI-gestützte Softwareentwicklung. Die Kombination von APIs und KI-Technologien ist entscheidend für die Entwicklung leistungsstarker Anwendungen. Die drei identifizierten Muster – Anwendungen, die KI-Funktionalität über APIs integrieren, und KI-Dienste, die APIs für Aktionen aufrufen – bieten einen Fahrplan für die Nutzung von KI in der Anwendungsentwicklung. Da sich die KI-Landschaft weiterentwickelt, wird der Fokus auf APIs und die Strategien für ihre Integration noch wichtiger werden.
Verwandte Ressourcen
API Gateway For ChatGPT Plugins Building a ChatGPT custom plugin for API Gateway