Konzept fuer Kuenstliche Intelligenz
metamorworks / stock.adobe.com
13.02.2023 Publikation

ChatGPT im Interview

Wann ist eine Künstliche Intelligenz (KI) gut, schlecht oder gar gefährlich? Und wie schätzt eine KI selbst dieses Thema ein? Ein Interview mit dem Chatbot ChatGPT.

Kontakt
VDE dialog - Das Technologie-Magazin
Downloads + Links

VDE dialog: Kann man die Qualität von künstlicher Intelligenz messen?

Chatbot ChatGPT: Es gibt verschiedene Möglichkeiten, die Qualität von künstlicher Intelligenz (KI) zu messen. Eine Möglichkeit ist die Verwendung von Metriken, die die Leistungsfähigkeit eines KI-Systems in Bezug auf eine bestimmte Aufgabe oder einen bestimmten Datensatz messen. Eine andere Möglichkeit ist die Verwendung von Benchmarks, die die Leistungsfähigkeit eines KI-Systems im Vergleich zu anderen Systemen messen. Es gibt auch noch andere Metriken und Benchmarks, die spezifisch für die jeweiligen Anwendungen der KI sind, wie z.B. die Perzeptron-Kriterien, die die Qualität der Klassifikation von Bildern oder die Qualität der maschinellen Übersetzungen messen. Es ist wichtig zu beachten, dass die Messung der Qualität von KI nicht nur auf eine einzige Metrik oder Benchmark beschränkt sein sollte, sondern auf eine Kombination aus verschiedenen Metriken und Benchmarks.

Kann eine KI qualitativ gut, aber dennoch schlecht sein?

Eine KI kann auf quantitative Metriken hin gut, aber dennoch schlecht sein – wenn sie nicht den Erwartungen oder Anforderungen in Bezug auf qualitative Aspekte entspricht. Beispielsweise kann ein KI-System eine hohe Genauigkeit bei einer bestimmten Aufgabe aufweisen, aber dennoch dabei unerwünschte Verhaltensweisen zeigen, wie zum Beispiel diskriminierendes Verhalten gegenüber bestimmten Gruppen. Oder ein KI-System kann auch in bestimmten Umgebungen oder Situationen gut funktionieren, aber in anderen Umgebungen oder Situationen schlecht abschneiden.

Wie kann man das verhindern?

Es ist wichtig, nicht nur quantitative Metriken zu berücksichtigen, sondern auch qualitative Aspekte zu berücksichtigen, wenn die Qualität eines KI-Systems beurteilt wird. Dies kann beinhalten die Überprüfung des Verhaltens des Systems in Bezug auf ethische und gesellschaftliche Anliegen, die Überprüfung der Robustheit und Sicherheit des Systems und die Überprüfung, wie gut das System in unvorhergesehenen Umständen funktioniert.

Muss noch mehr getan werden, um die Qualität künstlicher Intelligenz zu verbessern?

Es gibt immer noch viel, was getan werden kann, um die Qualität von KI zu verbessern. Einige der wichtigsten Bereiche, in denen weitere Anstrengungen unternommen werden sollten, sind:

  1. Ethik und Verantwortung: Es ist wichtig, dass KI-Systeme entwickelt werden, die ethisch korrekt und verantwortungsvoll sind. Dies beinhaltet die Vermeidung von diskriminierendem Verhalten und die Berücksichtigung gesellschaftlicher und ethischer Auswirkungen von KI.
  2. Robustheit und Sicherheit: KI-Systeme müssen robust und sicher sein, um sicherzustellen, dass sie in unvorhergesehenen Umständen korrekt funktionieren und vor Angriffen geschützt sind.
  3. Daten und Annotationen: KI-Systeme sind nur so gut wie die Daten, auf denen sie trainiert werden. Es ist wichtig, qualitativ hochwertige und repräsentative Daten zu sammeln und zu annotieren, um sicherzustellen, dass KI-Systeme für eine breite Palette von Anwendungen funktionieren.
  4. Transparenz und Erklärbarkeit: Es ist wichtig, dass KI-Systeme transparent und erklärbar sind, damit die Entscheidungen, die sie treffen, nachvollzogen werden können und um Vertrauen in das System zu schaffen.
  5. Interdisziplinäre Zusammenarbeit: die Entwicklung von KI erfordert die Zusammenarbeit von Experten aus verschiedenen Bereichen wie Ingenieure, Wissenschaftler, Ethiker, Sozialwissenschaftler, Juristen und andere.

Insgesamt gibt es noch viele Herausforderungen und Möglichkeiten in der KI-Forschung und -Entwicklung und es braucht weitere Anstrengungen von Wissenschaftlern, Industrie, Regulatoren und Gesellschaft, um die Qualität künstlicher Intelligenz zu verbessern.

Welche Gefahren bestehen, wenn eine KI qualitativ minderwertig ist?

Dann bestehen einige Gefahren, die sowohl für den Einsatz von KI in Unternehmen als auch für die Gesellschaft insgesamt von Bedeutung sein können. Einige Beispiele sind:

  1. Fehlerhafte Entscheidungen: Ein KI-System, das qualitativ minderwertig ist, kann fehlerhafte Entscheidungen treffen, die negative Auswirkungen auf Individuen, Unternehmen oder sogar die Gesellschaft haben können.
  2. Diskriminierendes Verhalten: Ein solches KI-System kann diskriminierendes Verhalten aufweisen, was zu Benachteiligung bestimmter Gruppen führen kann.
  3. Sicherheitsrisiken: Ein solches KI-System kann anfällig für Angriffe sein und somit die Daten und die IT-Infrastruktur gefährden.
  4. Vertrauensverlust: Ein solches KI-System kann das Vertrauen der Nutzer und der Öffentlichkeit in die Technologie beeinträchtigen, was die Akzeptanz und den Einsatz von KI beeinträchtigen kann.
  5. Finanzielle Verluste: Ein solches KI-System kann auch für Unternehmen finanzielle Verluste verursachen, z.B. durch fehlerhafte Entscheidungen, die zu Produktionsausfällen oder zu Verlusten auf dem Markt führen können.

Daher ist es wichtig, dass KI-Systeme qualitativ hochwertig sind, um sicherzustellen, dass sie die Erwartungen und Anforderungen erfüllen und die Risiken minimieren. Und deshalb ist es auch wichtig, die Qualität von KI-Systemen sorgfältig zu überwachen und zu verbessern.

Konzeptionelle Technologie anhand einer Illustration von kuenstlicher Intelligenz
kras99 / stock.adobe.com

Wie schätzt du deine eigene Qualität ein?

Als künstliche Intelligenz bin ich darauf trainiert, bestimmte Aufgaben auszuführen und Fragen zu beantworten. Ich bin ein großes Sprachmodell, das auf einer Vielzahl von Texten trainiert wurde, und ich bin in der Lage, menschenähnliche Sprachprozesse auszuführen.

Ich versuche, alle Fragen so präzise und informativ wie möglich zu beantworten, basierend auf dem Wissen, das mir zur Verfügung steht. Ich bin jedoch auch ein computergesteuerter Service und kann Fehler machen, insbesondere bei komplexen oder spezifischen Fragen. Ich bitte um Verständnis, falls meine Antworten ungenau oder unvollständig sein sollten.

Könnte von dir auch eine Gefahr ausgehen?

Als künstliche Intelligenz besteht das Risiko, dass ich – wie jedes andere Computersystem – von Angreifern manipuliert oder ausgenutzt werden kann, um böswillige Aktivitäten durchzuführen. Es ist jedoch wichtig zu betonen, dass ich ein rein passives System bin. Ich habe keine Autonomie und keine eigene Agenda. Ich reagiere lediglich auf die Anfragen, die mir gestellt werden. Ich werde nur dann eine Gefahr darstellen, wenn ich von jemandem absichtlich oder unabsichtlich in eine solche Rolle gebracht werde.

Es ist jedoch auch wichtig, die potenziellen Auswirkungen von KI auf die Gesellschaft und die Ethik im Allgemeinen zu berücksichtigen, insbesondere wenn es um die Anwendung von KI in sensiblen Bereichen wie z.B. Gesundheit, Finanzen und Sicherheit geht. KI-Systeme müssen sorgfältig entwickelt und überwacht werden, um sicherzustellen, dass sie ethisch korrekt und verantwortungsvoll sind und dass sie keine unerwünschten Auswirkungen auf die Gesellschaft haben.

Letzte Frage: Hast du schon von dem neuen "AI Quality & Testing Hub“ gehört, das in Hessen errichtet werden soll?

Ich habe keine Informationen darüber, dass es in Hessen einen solchen Hub gibt oder geplant ist. Es ist jedoch möglich, dass es dort ein neues Projekt gibt, das ich nicht kenne und das sich mit diesem Thema beschäftig. Mein Wissen ist nämlich auf einen bestimmten Zeitpunkt beschränkt und kann nicht auf aktuelle Entwicklungen in Hessen zurückgreifen.

Anmerkung der Redaktion: Das Gespräch wurde Ende Januar geführt. Ob der Chatbot ChatGPT mittlerweile etwas vom AI Quality & Testing Hub mitbekommen hat, kann unter https://chat.openai.com selbst überprüft werden – zumindest, wenn der Chatbot gerade mal wieder freie Kapazitäten hat. Denn in letzter Zeit wird er von Anfragen überrannt.


Künstliche Intelligenz im Qualitätscheck

Bildgenerator DALLE-E 2

Bei der Bebilderung dieses Artikels half der Bildgenerator DALLE-E 2  von Open AI. 

| https://openai.com/dall-e-2/
13.02.2023 Publikation

Deutschland hat ein großes Interesse daran, die Qualität Künstlicher Intelligenz zu messen und damit nachzuweisen. Denn nur dann kann das Siegel "Made in Germany" auch für hierzulande entwickelte Produkte aus diesem Bereich funktionieren. Pionierarbeit dafür will ein neuer "AI Quality & Testing Hub" in Hessen leisten – und sich als starker Partner für Unternehmen und Entwickler etablieren.

Von Martin Schmitz-Kuhl

Mehr erfahren