Nachdem Foundation Modelle die Forschung seit 2018 im Sturm erobert haben, entstehen in den letzten 12 Monaten in hoher Geschwindigkeit kommerzielle Applikationen. Für Unternehmen bieten sich aufgrund der beschriebenen niedrigen Einstiegshürden große Chancen, diese Verfahren für die Optimierung interner Prozesse zu nutzen. Allerdings stehen Unternehmen vor einer Reihe vor Herausforderungen, bis sie die Verfahren in der Praxis nutzen können:
- Die mit Foundation-Modellen generierte Inhalte sind beeindruckend. Im Detail können die Ergebnisse aber irreführend oder falsch sein, da die Modelle auf Trainingsdaten zurückgreifen, die zum Teil veraltet oder falsch sind (z.B. Produktbeschreibungen oder Preise). Die Modelle recyclen die Inhalte dieser Trainingsdaten, die im Wesentlichen auf dem „Common Crawl“-Datensatz stattfinden (umfasst alle Webseiten, die seit 2011 online verfügbar waren). Um optimale Ergebnisse für den eigenen Anwendungszweck zu erzielen, bedarf es in der Regel eines Finetunings, bei dem die Modelle auf eine unternehmensspezifische Terminologie, Bildsprache oder Aufgaben trainiert werden. Unternehmen benötigen dazu eine ausreichende Menge an Trainingsdaten und Wissen, um aus den öffentlich verfügbaren Modellen eigene, proprietäre Inhalte zu kreieren.
- Auch wenn die Ansprache der Modelle über einen simplen Text stattfindet, ist die Formulierung der Prompts nicht trivial. Um optimale Ergebnisse zu erzielen, ist ein tiefes Verständnis der einzelnen Modelle notwendig, die sich in Form des korrekten Prompt-Engineering ausdrückt. Hier geht es um die Nutzung spezifischer Begriffe und Formulierungen, um den gewünschten Output zu erzielen.
- Die führenden KI-Anbieter haben mit dem Pay-Per-Use-Modell zwar ein niedrigschwelliges, aber auf Dauer teures Angebot geschaffen. Zudem liegen die Rechte an den Modellen nicht bei den Unternehmen; die Nutzung und das proprietäre Training von Open-Source-Modellen sind mit technischen Hürden verbunden und meist mit extrem hohen Innovationsgeschwindigkeiten.
- Ethische Aspekte/ Bias/ Datenschutz: Bei der Verwendung von Foundation-Modellen müssen darüber hinaus weitere Aspekte berücksichtigt werden: Datenschutz und Privatsphäre: Foundation-Modelle verwenden oft große Mengen von Daten, um zu lernen und zu verbessern. Die Verwendung von personenbezogenen Daten für das Training der Modelle und die Speicherung der Daten selbst können Bedenken hinsichtlich des Datenschutzes und der Privatsphäre aufwerfen.
-
- Bias und Diskriminierung: Foundation-Modelle können dazu neigen, den Voreingenommenheiten, die in den Trainingsdaten vorhanden sind, zu entsprechen. Wenn diese Voreingenommenheit auf Geschlecht, Rasse, Ethnizität oder anderen Faktoren beruht, kann dies zu Diskriminierung führen.
- Verantwortung: Da Foundation-Modelle große Mengen an Text generieren können, kann es schwierig sein, die Verantwortung für die Ausgabe dieser Modelle zu übernehmen. Es kann auch schwierig sein, die Quelle der generierten Texte nachzuverfolgen.
- Sicherheit: Foundation-Modelle können verwendet werden, um gefälschte Texte und Deepfakes zu erstellen. Wenn diese Technologie in die falschen Hände gerät, können damit falsche Informationen und manipulierter Inhalt verbreitet werden.
-
Datenschutz: GPT-3 oder ChatGPT von OpenAI sind keine Open Source-Technologie. Wenn Unternehmen beispielsweise die Modelle mit kundenspezifischem Wissen anpassen, dann trainieren sie damit in gewisser Weise auch das Sprachmodell von OpenAI respektive Microsoft. Was die Firmen dann letztlich mit den durchaus sensiblen Daten machen, ist derzeit noch unklar.
-