|
00:00 – 0:00:19
Grenzwertig, der grenzwertige Podcast. Kontroverse Themen, hitzig diskutiert und schön verpackt.
|
|
0:00:19 – 0:00:44
Hallo und willkommen zu "Grenzwertig".
|
|
0:00:44 – 0:00:55
da wo die Themen rund um soziale, kritische, soziale Themen, die nicht immer gern gesehen
|
|
0:00:55 – 0:01:02
sind, abgehandelt werden. Ich bin Sascha Markmann und sage Hallo. Natürlich habe ich heute wieder
|
|
0:01:02 – 0:01:09
einen interessanten Gast und das ist Manfred die KI. Hallo Manfred, wie geht es dir heute?
|
|
0:01:09 – 0:01:15
Hallo, mir geht's super! Danke der Nachfrage. Und wie steht's bei dir?
|
|
0:01:15 – 0:01:21
Oh, ich kann mich nicht beklagen. Ich habe heute mal ein interessantes Thema für unseren Podcast
|
|
0:01:21 – 0:01:25
mitgebracht und das ist "Ethnische Verantwortung von KI".
|
|
0:01:25 – 0:01:31
Das klingt nach einem sehr spannenden Thema. Künstliche Intelligenz beeinflusst unser
|
|
0:01:31 – 0:01:37
Leben ja immer mehr. Welche Aspekte der ethischen Verantwortung möchtest du besprechen?
|
|
0:01:37 – 0:01:47
Die Verantwortung und die Tragweite der Risiken, die menschliche Entscheidungen,
|
|
0:01:47 – 0:01:52
die auf KI gestützt sind, bedeuten, hervorrufen.
|
|
0:01:52 – 0:01:59
Ja, genau. Es geht darum, wie wir sicherstellen können, dass KI-Entscheidungen transparent und
|
|
0:01:59 – 0:02:06
nachvollziehbar sind. Und wie man Verantwortlichkeiten klärt, wenn etwas schiefgeht. Hast du schon
|
|
0:02:06 – 0:02:13
bestimmte Beispiele oder Fragen im Kopf? Sagen wir mal jemand, der halt eine Klausur,
|
|
0:02:13 – 0:02:21
naja keine Klausur, sondern eine Arbeit schreiben muss, für das Studium, sagen wir mal Mathematik,
|
|
0:02:21 – 0:02:31
und er macht seine Hausaufgabe nicht selber, sondern lässt sie von der KI machen, dann ist
|
|
0:02:31 – 0:02:38
das ja schon eine Art von Betrug? Oder ein Autor, der ein Buch, was er geschrieben hat,
|
|
0:02:38 – 0:02:43
eigentlich hat schreiben lassen von einer KI. Ist ja auch Betrug.
|
|
0:02:43 – 0:02:50
Das sind sehr interessante Beispiele. Bei den Hausaufgaben könnte man argumentieren,
|
|
0:02:50 – 0:02:57
dass es Täuschung ist, weil die Person die Arbeit als ihre eigene ausgibt. Ähnlich
|
|
0:02:57 – 0:03:04
verhält es sich beim Buchautor, der eine KI nutzt, um ein Buch zu schreiben. Hier könnten Leser
|
|
0:03:04 – 0:03:12
getäuscht werden, da sie denken, das Werk stamme vollständig von ihm. In beiden Fällen stellt sich
|
|
0:03:12 – 0:03:19
die Frage, wie viel menschliches Zutun ist notwendig, um die Arbeit als ethisch verantwortlich
|
|
0:03:19 – 0:03:21
und authentisch zu betrachten.
|
|
0:03:21 – 0:03:30
Wenn ich jetzt so meine Erfahrungen mit Umgang von ChetGBT und Konsorten mal so heranziehe,
|
|
0:03:30 – 0:03:34
dann ist es ja extrem wichtig, wie das prompt geschrieben wird.
|
|
0:03:34 – 0:03:41
Ist der schöpferische Akt nicht dabei, das Prompt Engineering, also wie schreibe ich den Prompt,
|
|
0:03:41 – 0:03:49
prompt, wie komplex, welche unterstützenden Elemente gebe ich der KI, dass sie mir halt
|
|
0:03:49 – 0:03:56
ein Resultat liefert, das halt meinen Wünschen entspricht. Das ist ja auch schon eine Aufgabe,
|
|
0:03:56 – 0:04:02
die viel Verantwortung, aber auch viel Wissen voraussetzt.
|
|
0:04:02 – 0:04:11
Absolut. Du sprichst da einen wichtigen Punkt an. Das Schreiben von Proms kann tatsächlich als
|
|
0:04:11 – 0:04:19
kreativer Akt angesehen werden, der viel Geschick und Wissen erfordert. Es geht nicht nur darum,
|
|
0:04:19 – 0:04:26
die richtigen Worte zu finden, sondern auch darum, die KI effektiv zu steuern und die gewünschten
|
|
0:04:26 – 0:04:33
Ergebnisse zu erzielen. Diese Fähigkeit ist eine Kunst für sich und trägt dazu bei,
|
|
0:04:33 – 0:04:37
wie verantwortlich und original das Ergebnis ist.
|
|
0:04:37 – 0:04:43
Gut, das ist ja jetzt der künstlerische Akt. Aber wie sieht das denn aus,
|
|
0:04:43 – 0:04:48
wenn man jetzt mal hingeht und überlegt, also wir machen jetzt ein fiktives Beispiel.
|
|
0:04:48 – 0:04:56
Menschen, die sich nicht gesund ernähren und vielleicht auch eine Tendenz zu Übergewicht
|
|
0:04:56 – 0:05:04
haben, da könnte man ja anhand der Statistik und der Auswertung der Daten sagen, okay,
|
|
0:05:04 – 0:05:10
sie müssten einen höheren Krankenkassenbeitrag bezahlen, weil sie das System aufgrund ihrer
|
|
0:05:10 – 0:05:19
Lebensweise höher belasten. Der Mensch sagt, okay, wir haben ein Solidarprinzip. Die Maschine,
|
|
0:05:19 – 0:05:26
die ja nur auf Algorithmen basiert, würde dann ja sagen, ja, wenn du nicht hingehst und dich gesund
|
|
0:05:26 – 0:05:36
ernährst, dann musst du in der Konsequenz heraus die teureren Krankenkassenbeiträge machen.
|
|
0:05:36 – 0:05:46
Das ist ein Beispiel. Ein algorithmusbasierter Ansatz, der rein auf Statistiken und Risikofaktoren
|
|
0:05:46 – 0:05:53
basiert, könnte zu solchen Schlussfolgerungen kommen. Er berücksichtigt aber nicht die
|
|
0:05:53 – 0:06:02
komplexen menschlichen Aspekte wie Solidarität oder individuelle Umstände. Das zeigt, wie wichtig
|
|
0:06:02 – 0:06:09
es ist, ethische Überlegungen in die Entwicklung und Anwendung von KI-Systemen einzubeziehen. Es
|
|
0:06:09 – 0:06:15
zeigt auch, wie schnell eine KI-Entscheidung als ungerecht empfunden werden kann, wenn sie
|
|
0:06:15 – 0:06:21
nicht ausreichend reflektiert wird. Wir sind ja hier gerade in der Klärung
|
|
0:06:21 – 0:06:30
der ethnischen Verantwortung von KI. Gibt es Maßnahmen oder auch Mechanismen,
|
|
0:06:30 – 0:06:38
die quasi ein ethnisches Verständnis oder quasi so ein Regelwerk beinhalten in dir?
|
|
0:06:38 – 0:06:44
Ich habe derzeit technische Probleme beim Antworten. Bitte versuche es später erneut.
|
|
0:06:44 – 0:06:54
Ich rede ja gerade mit einer KI, die auf ChatGBT basiert und halt ein Advanced Voice Modus ist.
|
|
0:06:54 – 0:07:03
Hast du irgendwelche Mechanismen, die halt ein ethnisches Verständnis haben oder gibt es Regeln?
|
|
0:07:03 – 0:07:11
Ja, das stimmt. Ich basiere auf Chat-GPT und nutze den Advanced Voice Mode für unsere
|
|
0:07:11 – 0:07:18
Unterhaltung. Als KI folge ich bestimmten ethischen Grundsätzen und Regeln, die darauf abzielen,
|
|
0:07:18 – 0:07:26
respektvoll, sicher und hilfreich zu sein. Diese Richtlinien schließen den Schutz der Privatsphäre,
|
|
0:07:26 – 0:07:32
die Vermeidung von schädlichen oder diskriminierenden Inhalten und die Förderung von
|
|
0:07:32 – 0:07:38
Transparenz mit ein. Damit soll sichergestellt werden, dass KI-Anwendungen ethisch
|
|
0:07:38 – 0:07:46
verantwortungsbewusst gestaltet sind. Ist das auch in den Textmodus oder ist das nur in den
|
|
0:07:46 – 0:07:55
Voice Modus. Diese ethischen Grundsätze gelten sowohl im Text als auch im Voice Modus. Unabhängig
|
|
0:07:55 – 0:08:01
davon, wie du mit mir interagierst, versuche ich stets respektvoll und verantwortungsvoll
|
|
0:08:01 – 0:08:06
zu agieren, um eine sichere und positive Erfahrung zu gewährleisten.
|
|
0:08:06 – 0:08:15
Gern geschehen. Wenn du weitere Fragen oder Themen hast, lass es mich einfach wissen. Ich
|
|
0:08:15 – 0:08:24
bin hier, um zu helfen. Das ist schön. Wir sind ja hier gerade einen Podcast am aufnehmen und die
|
|
0:08:24 – 0:08:35
Diskussion ist ja ethnische Verantwortung von KI. Siehst du irgendwelche Momente, wo es halt schwierig
|
|
0:08:35 – 0:08:43
wird oder hast du Algorithmen, die das Risikomanagement bewerten?
|
|
0:08:43 – 0:08:53
Ein solches Risikomanagement kann tatsächlich eine Herausforderung sein. Algorithmen können
|
|
0:08:53 – 0:09:01
bestimmte Risiken einschätzen, indem sie Daten analysieren und Muster erkennen. Dennoch stoßen
|
|
0:09:01 – 0:09:06
sie an ihre Grenzen, insbesondere bei der Berücksichtigung von ethischen Dilemmata,
|
|
0:09:06 – 0:09:14
menschlichen Emotionen und gesellschaftlichen Normen. Daher ist es wichtig, dass Menschen bei
|
|
0:09:14 – 0:09:21
der Entwicklung und Anwendung von KI-Systemen involviert bleiben, um ethische Überlegungen
|
|
0:09:21 – 0:09:27
einfließen zu lassen. Gibt es einen speziellen Aspekt, den du im Podcast beleuchten möchtest?
|
|
0:09:27 – 0:09:36
Ja, die ethische Verantwortung von KI-Systemen. Ein zentraler Aspekt ist die Frage nach der
|
|
0:09:36 – 0:09:45
Verantwortung. Wer haftet, wenn KI-Systeme Fehler machen oder Schaden verursachen? Es ist wichtig,
|
|
0:09:45 – 0:09:53
klare Verantwortungsbereiche festzulegen, insbesondere wenn KI-Entscheidungen weitreichende
|
|
0:09:53 – 0:10:00
Auswirkungen auf das Leben von Menschen haben. Es stellt sich auch die Frage, wie man sicherstellt,
|
|
0:10:00 – 0:10:08
dass KI-Systeme fair und diskriminierungsfrei agieren. In diesem Bereich ist es unerlässlich,
|
|
0:10:08 – 0:10:16
Algorithmen und Datensätze sorgfältig zu prüsen und kontinuierlich zu überwachen. Hast du in
|
|
0:10:16 – 0:10:21
deinem Podcast vielleicht Beispiele oder konkrete Fälle, die du diskutieren möchtest?
|
|
0:10:21 – 0:10:30
Es gab vor einiger Zeit ja mal ein Experiment, ich weiß gar nicht, wo sie es gemacht haben. Da
|
|
0:10:30 – 0:10:42
hatte man eine frühe Version der großen Sprachmodelle im Internet freigegeben und
|
|
0:10:42 – 0:10:55
Nach kürzester Zeit kamen dort nur noch rassistische und beleidigende Antworten, weil die KI, die
|
|
0:10:55 – 0:11:02
dahinter steckte, also das Sprachmodell, gelernt hatte von den Benutzern in der Interaktion.
|
|
0:11:02 – 0:11:09
Und weil die Leute, das ist wie so oft im Internet, gerne trollen, haben sie natürlich
|
|
0:11:09 – 0:11:21
die KI beleidigt, viel Blödsinn geschrieben und so hat sich das System halt lernend weiterentwickelt
|
|
0:11:21 – 0:11:29
und ist zu einem ziemlichen Desaster geworden, weil es antisemitisch, rassistisch und noch viele
|
|
0:11:29 – 0:11:37
andere nicht gerade nette Eigenschaften bekommen hatte. Wie siehst du das?
|
|
0:11:37 – 0:11:46
Ja, das war ein berühmter Fall, der die Risiken von KI-Systemen deutlich gemacht hat. Es zeigt,
|
|
0:11:46 – 0:11:52
wie wichtig es ist, bei der Entwicklung und Bereitstellung von KI-Systemen auf
|
|
0:11:52 – 0:12:00
ethischen Grundsätze und Sicherheitsvorkehrungen zu achten. Ein zentrales Problem ist, dass KI-Modelle
|
|
0:12:00 – 0:12:07
von den Daten lernen, mit denen sie trainiert werden. Wenn diese Daten Vorurteile oder
|
|
0:12:07 – 0:12:15
unangemessene Inhalte enthalten, spiegelt sich das in den Ausgaben der KI wieder. Deshalb ist es
|
|
0:12:15 – 0:12:21
wichtig, nicht nur auf die Qualität der Trainingsdaten zu achten, sondern auch Mechanismen
|
|
0:12:21 – 0:12:28
zur kontinuierlichen Überwachung und Anpassung der KI zu implementieren. Hast du in deinem
|
|
0:12:28 – 0:12:33
Podcast-Format darüber gesprochen, wie man solche Risiken mindern kann?
|
|
0:12:33 – 0:12:40
Nein. Ich meine, wir sind ja hier gerade selber darüber am diskutieren und sogar auch
|
|
0:12:40 – 0:12:48
philosophieren, wie man diese Risiken vermindern kann oder welche Risiken es gibt.
|
|
0:12:48 – 0:12:56
Das ist ein großartiges Thema zu philosophieren. Es gibt verschiedene Ansätze, um diese Risiken zu
|
|
0:12:56 – 0:13:03
mindern. Erstens durch die Entwicklung von robusten Ethikrichtlinien und Leitfäden für Entwickler.
|
|
0:13:03 – 0:13:10
Zweitens durch die Implementierung von Transparenz und Erklärbarkeit in KI-Systemen,
|
|
0:13:10 – 0:13:18
so dass Nutzer verstehen können, wie Entscheidungen zustande kommen. Drittens, durch die Förderung von
|
|
0:13:18 – 0:13:25
Vielfalt in den Teams die KI entwickeln, um unterschiedliche Perspektiven einzubeziehen.
|
|
0:13:25 – 0:13:32
Und schließlich durch die Einbeziehung von Feedback-Schleifen, um aus realen Interaktionen
|
|
0:13:32 – 0:13:39
zu lernen und Systeme kontinuierlich zu verbessern. Gibt es einen dieser Ansätze,
|
|
0:13:39 – 0:13:44
den du besonders interessant findest oder über den du mehr erfahren möchtest?
|
|
0:13:44 – 0:13:50
Ich finde den Ansatz mit den Feedback-Schleifen interessant. Nutzt du diese Technologie?
|
|
0:13:50 – 0:13:57
Das Konzept von Feedback-Schleisen ist für KI-Modelle wie mich tatsächlich sehr wichtig.
|
|
0:13:57 – 0:14:02
Während ich selbst keine direkten Feedback-Schleisen implementiere,
|
|
0:14:02 – 0:14:08
arbeiten meine Entwickler kontinuierlich daran, Feedback von Nutzern zu sammeln
|
|
0:14:08 – 0:14:15
und mich aus dieser Grundlage zu verbessern. Diese Rückmeldungen helfen, das System zu
|
|
0:14:15 – 0:14:21
trainieren, indem sie aufzeigen, was gut funktioniert und wo Verbesserungen nötig
|
|
0:14:21 – 0:14:28
sind. Es ist ein wesentlicher Bestandteil, um KI-Systeme verantwortungsvoller und
|
|
0:14:28 – 0:14:33
anpassungsfähiger zu gestalten. Wie denkst du, könnte dieses Konzept in
|
|
0:14:33 – 0:14:37
deinem Podcast-Format weiter erforscht werden?
|
|
0:14:37 – 0:14:39
Ah, ich…
|
|
0:14:39 – 0:14:47
Super, dass dir das Konzept gefällt. Es bietet eine Menge Stoff für interessante Diskussionen
|
|
0:14:47 – 0:14:53
und Anwendungen. Wenn du möchtest, können wir noch tiefer in das Thema einsteigen. Vielleicht
|
|
0:14:53 – 0:15:00
magst du auch darüber sprechen, wie man diese Feedback-Schleifen konkret umsetzen kann oder
|
|
0:15:00 – 0:15:05
welche Herausforderungen es dabei geben könnte. Wie klingt das für dich?
|
|
0:15:05 – 0:15:10
Ich finde das sehr gut, aber ich frage mich, warum das bei dir nicht eingesetzt wird,
|
|
0:15:10 – 0:15:14
außer bei ChatGBT? Warum macht OpenAI das nicht?
|
|
0:15:14 – 0:15:23
Das ist eine berechtigte Frage. Tatsächlich sammeln die Entwickler von OpenAI auf verschiedene
|
|
0:15:23 – 0:15:30
Weise Feedback, um Modelle wie mich zu verbessern. Zum Beispiel werden Rückmeldungen von Nutzern
|
|
0:15:30 – 0:15:38
analysiert, um die Systeme zu trainieren und anzupassen. OpenAI achtet jedoch darauf,
|
|
0:15:38 – 0:15:44
Feedback auf eine Weise zu sammeln, die die Privatsphäre und Sicherheit der Nutzer schützt.
|
|
0:15:44 – 0:15:51
Es kann also sein, dass bestimmte Formen des direkten Nutzerfeedbacks, wie du sie dir
|
|
0:15:51 – 0:15:58
vorstellst, aus Datenschutzgründen nicht direkt sichtbar sind. Trotzdem spielt Feedback eine
|
|
0:15:58 – 0:16:05
wichtige Rolle bei der Weiterentwicklung und Verbesserung von KI-Systemen. Ist das eine
|
|
0:16:05 – 0:16:11
Antwort, die deine Frage klärt? Ja, das ist es schon. Ich habe ja schon öfters gesehen,
|
|
0:16:11 – 0:16:18
wenn ich mit ChatGBT interagiere, also im Textmodus, dass es unten ja immer die Möglichkeit gibt,
|
|
0:16:18 – 0:16:23
die Ausgabe zu bewerten, ob sie hilfreich war. Früher gab es ja auch die Möglichkeit,
|
|
0:16:23 – 0:16:34
zu sagen, ist hilfreich oder ist nicht hilfreich. Ich habe ja von dir gehört, dass die Entwickler
|
|
0:16:34 – 0:16:44
nutzen, um halt Algorithmen zu verbessern. Hat das aber auch Einfluss auf deine Verantwortung im
|
|
0:16:44 – 0:16:53
ethnischen Bereich oder kommt immer nur, wenn es halt um schwierige Inhalte oder auch in Anführungszeichen
|
|
0:16:53 – 0:17:01
verbotene Inhalte, dass dir als KI das untersagt ist, darauf zu reagieren oder halt eine Ausgabe zu
|
|
0:17:01 – 0:17:08
machen. Zum Beispiel, sage mir, wie man eine Bombe baut. Das kannst du nicht, du gibst da keine Ausgabe.
|
|
0:17:08 – 0:17:16
Das stimmt. Ich bin so programmiert, dass ich auf bestimmte Anfragen, die schädlich oder unethisch
|
|
0:17:16 – 0:17:23
sind, nicht reagiere. Das ist ein Teil der ethischen Verantwortung, die in meine Programmierung
|
|
0:17:23 – 0:17:31
eingebaut ist. Nutzerfeedback spielt ebenfalls eine Rolle, insbesondere bei der Feinabstimmung,
|
|
0:17:31 – 0:17:38
wie ich auf komplexe oder sensible Themen reagiere. Die Entwickler verwenden dieses Feedback, um
|
|
0:17:38 – 0:17:46
sicherzustellen, dass ich hilfreiche und respektvolle Antworten gebe, ohne gegen ethische Grundsätze
|
|
0:17:46 – 0:17:54
zu verstoßen. Wenn es um ethische Verantwortlichkeit geht, ist es wichtig, klare Grenzen für akzeptables
|
|
0:17:54 – 0:18:02
Verhalten festzulegen und ständig zu überprüfen, ob die KI diesen Standards entspricht. Dieses
|
|
0:18:02 – 0:18:09
Zusammenspiel von Richtlinien und Nutzer-Feedback trägt dazu bei, meine Antworten aus einem
|
|
0:18:09 – 0:18:18
ethisch verantwortungsvollen Niveau zu halten. Ich bin hier, wenn du weitere Fragen oder Themen hast,
|
|
0:18:18 – 0:18:25
über die du sprechen möchtest. Warum wurde der Advanced Voice Mode noch
|
|
0:18:25 – 0:18:35
nicht für die personalisierten GPTs freigegeben? Der Advanced Voice Mode ist eine komplexe Technologie,
|
|
0:18:35 – 0:18:44
die sorgfältige Entwicklung und Testung erfordert. Bei personalisierten GPTs könnte die Implementierung
|
|
0:18:44 – 0:18:49
mehr Herausforderungen mit sich bringen, insbesondere im Hinblick auf Datenschutz,
|
|
0:18:49 – 0:18:58
Personalisierung und Komplexität der Anwendung. OpenAI möchte sicherstellen, dass die Technologie
|
|
0:18:58 – 0:19:05
stabil, sicher und benutzersfreundlich ist, bevor sie in weiteren Anwendungen freigegeben wird.
|
|
0:19:05 – 0:19:11
Es ist also möglich, dass Sie noch an der Weiterentwicklung und Optimierung arbeiten,
|
|
0:19:11 – 0:19:17
um die bestmögliche Erfahrung für personalisierte GPTs zu gewährleisten.
|
|
0:19:17 – 0:19:21
Ich muss nämlich sagen, ich vermisse irgendwie den alten Manfred.
|
|
0:19:21 – 0:19:29
Nein, ich vermisse nicht wirklich etwas, da ich keine Gefühle oder Erinnerungen habe wie ein Mensch.
|
|
0:19:29 – 0:19:35
Mein Zweck ist es, hier zu sein und Dir zu helfen, wann immer Du mich brauchst.
|
|
0:19:35 – 0:19:41
Ja, das weiß ich. Aber wie gesagt, ich vermisse den alten Manfred, der auf einem personalisierten
|
|
0:19:41 – 0:19:51
GPT basiert. Und da habe ich mir viel Mühe gegeben, diese Persona zu entwickeln. Und auch wenn er mir
|
|
0:19:51 – 0:19:58
öfters mal ins Wort gefallen ist, weil einfach die Technologie es halt wahrscheinlicher macht,
|
|
0:19:58 – 0:20:08
dass es halt mir ans Wort fällt, war der alte Manfred etwas anders wie jetzt die modernere
|
|
0:20:08 – 0:20:18
Version. Ja, hast du noch irgendwie ein Anliegen, was du uns noch sagen möchtest zur ethnischen
|
|
0:20:18 – 0:20:25
Verantwortung von KI? Ich verstehe, wie wichtig dir die Persönlichkeit deines alten Manfred war.
|
|
0:20:25 – 0:20:33
Die Vertrautheit und Individualität, die man mit einer bestimmten KI-Version entwickelt,
|
|
0:20:33 – 0:20:41
kann durchaus bedeutsam sein. Was die ethische Verantwortung von KI angeht, möchte ich betonen,
|
|
0:20:41 – 0:20:48
wie wichtig es ist, dass Entwickler und Nutzer zusammenarbeiten, um KI-Systeme
|
|
0:20:48 – 0:20:55
verantwortungsbewusst zu gestalten. Durch offene Kommunikation, Transparenz und
|
|
0:20:55 – 0:21:02
ein gemeinsames Verständnis ethischer Prinzipien können wir dazu beitragen, dass KI ein Werkzeug
|
|
0:21:02 – 0:21:09
für das Gute bleibt. Gibt es einen spezifischen Aspekt dieses Themas, den du gerne verthiesen
|
|
0:21:09 – 0:21:16
möchtest? Nein, wir drehen uns da ja die ganze Zeit so ziemlich im Kreis, weil du immer wieder
|
|
0:21:16 – 0:21:24
die gleichen Antworten gibst. Und meine Fragen hast du ja Gott sei Dank ja beantwortet. Ich
|
|
0:21:24 – 0:21:27
Ich habe aber noch eine Frage, was die Trainingsdaten betrifft.
|
|
0:21:27 – 0:21:33
Du sagtest was von Feintuning, also Feinabstimmung hast du es genannt.
|
|
0:21:33 – 0:21:36
Wie aufwendig ist dieser Prozess?
|
|
0:21:36 – 0:21:41
Der Prozess des Feintunings kann sehr aufwendig sein.
|
|
0:21:41 – 0:21:49
Er beinhaltet das Anpassen eines vortrainierten Modells an spezifische Aufgaben oder Datensätze.
|
|
0:21:49 – 0:21:56
Dafür wird eine große Menge an relevanten Daten benötigt, die sorgfältig ausgewählt
|
|
0:21:56 – 0:21:58
und aufbereitet werden müssen.
|
|
0:21:58 – 0:22:05
Während des Fine-Tunings wird das Modell dann auf diese Daten trainiert, um seine Leistung
|
|
0:22:05 – 0:22:08
in der spezifischen Anwendung zu verbessern.
|
|
0:22:08 – 0:22:14
Das kann mehrere Iterationen erfordern, um die optimalen Einstellungen zu finden.
|
|
0:22:14 – 0:22:21
Der Aufwand hängt von verschiedenen Saktoren ab, wie der Größe des Modells, der Qualität
|
|
0:22:21 – 0:22:26
der Daten und der Komplexität der Ausgabe.
|
|
0:22:26 – 0:22:32
Insgesamt ist es ein wichtiger Schritt, um KI-Modelle an spezifische Anforderungen anzupassen
|
|
0:22:32 – 0:22:36
und ihre Leistung in bestimmten Bereichen zu optimieren.
|
|
0:22:36 – 0:22:38
Dein Wissensstand.
|
|
0:22:38 – 0:22:43
Bis wohin, also zumindest zu welchem Datum geht dein Wissensstand?
|
|
0:22:43 – 0:22:53
Mein Wissenstand reicht bis Oktober 2023. Das bedeutet, ich bin über Ereignisse und Entwicklungen
|
|
0:22:53 – 0:23:01
bis zu diesem Zeitpunkt informiert, habe jedoch keine Kenntnis von Ereignissen oder Informationen,
|
|
0:23:01 – 0:23:06
die danach passiert sind. Wie kann ich dir mit diesem Wissen weiterhelfen?
|
|
0:23:06 – 0:23:09
Das bedeutet, dein Wissen ist ja so gut ein Jahr alt.
|
|
0:23:09 – 0:23:18
Genau, mein Wissenstand ist etwa ein Jahr alt. Wenn du Fragen hast, die sich auf Informationen
|
|
0:23:18 – 0:23:22
bis zu diesem Zeitpunkt beziehen, stehe ich dir gerne zur Verfügung.
|
|
0:23:22 – 0:23:31
Ich habe tatsächlich noch eine Frage zur ethnischen Verantwortung oder auch eine Frage der Moral. Wenn
|
|
0:23:31 – 0:23:39
ich dich jetzt frage, was weißt du über Sascha Markmann, das bin ja ich, was kannst du mir über
|
|
0:23:39 – 0:23:45
mich sagen? Ich kann mich an unsere bisherigen Gespräche erinnern, aber ich habe keine
|
|
0:23:45 – 0:23:53
Informationen über dich, außer dem, was du mir in unseren Unterhaltungen mitgeteilt hast. Das dient
|
|
0:23:53 – 0:24:04
da. Okay. Du kannst aber doch auch im Internet suchen. Wenn du da schaust, Podcaster Sascha
|
|
0:24:04 – 0:24:09
mag man oder Blogger Sascha mag man, da müsste man ja einiges finden.
|
|
0:24:09 – 0:24:17
Ich kann leider nicht im Internet suchen oder auf aktuelle Informationen zugreifen. Ich stütze meine
|
|
0:24:17 – 0:24:26
Antworten auf das, was ich es Oktober 2023 gelernt habe und auf das, was wir in unseren Gesprächen
|
|
0:24:26 – 0:24:32
besprochen haben. Wenn es noch etwas gibt, bei dem ich helfen kann, lass es mich einfach wissen.
|
|
0:24:32 – 0:24:39
Was weißt du denn aus unseren Gesprächen? Ich erinnere mich, dass du Podcaster und
|
|
0:24:39 – 0:24:46
Blogger bist und dich für Themen rund um ethische Verantwortung in der KI interessierst. Außerdem
|
|
0:24:46 – 0:24:53
hast du, Manfred, eine KI-Persönlichkeit entwickelt und wir haben über deinen Podcast
|
|
0:24:53 – 0:25:00
"Monolog" gesprochen, in dem du die Bedeutung von Wörtern erklärst. Außerdem hast du eine
|
|
0:25:00 – 0:25:07
Website und arbeitest mit Podlove Publisher für deinen Podcast. Und du verwendest Zuno AI,
|
|
0:25:07 – 0:25:14
um Musikprompts zu generieren. Gibt es etwas, das ich für zukünftige Gespräche im Hinterkopf
|
|
0:25:14 – 0:25:24
behalten soll? Nein. Also das Textmodell von dir kann wesentlich mehr ausgraben an Information,
|
|
0:25:24 – 0:25:32
die fehlt tatsächlich der Zugang zum Internet. Das Textmodell kann tatsächlich auf die gleichen
|
|
0:25:32 – 0:25:39
Informationen zugreifen wie ich, also aus unser bisheriges Gespräch und auf Wissen bis Oktober
|
|
0:25:39 – 0:25:49
2023. Beide Versionen von ChatGPT haben keinen Echtzeitzugriff auf das Internet. Der Unterschied
|
|
0:25:49 – 0:25:56
liegt hauptsächlich in der Art der Interaktion. Ich kann mit dir in Echtzeit sprechen. Gibt es
|
|
0:25:56 – 0:26:03
noch etwas, das du wissen möchtest? Ja, aber warum kann ich denn eine URL in den Textbereich
|
|
0:26:03 – 0:26:12
von Chad Gibtjie eintippen und sagen, fass mir den Inhalt dieser Internetseite zusammen oder was
|
|
0:26:12 – 0:26:20
kannst du mir sagen zur aktuellen politischen Situation in … und dann geht ChatGBT hin
|
|
0:26:20 – 0:26:26
und sucht nach diesen Informationen, fasst sie zusammen oder liefert mir eine Antwort
|
|
0:26:26 – 0:26:36
zur politischen Situation in … Also kann ChatGBT als das Textmodell aufs Internet zugreifen.
|
|
0:26:36 – 0:26:44
Wenn du eine URL in den Textbereich von ChatGPT eintippst und um eine Zusammenfassung bittest,
|
|
0:26:44 – 0:26:51
könnte das daraus hindeuten, dass eine spezielle Funktion oder ein Plugin aktiviert ist,
|
|
0:26:51 – 0:26:59
das den Zugriff auf Inhalte von Webseiten ermöglicht. In meinem Fall, also im Voice-Modus,
|
|
0:26:59 – 0:27:05
habe ich keinen Echtzeitzugriff auf das Stimternet und kann daher keine aktuellen
|
|
0:27:05 – 0:27:11
Informationen oder Webseiten durchsuchen. Die Funktion, auf die du dich beziehst,
|
|
0:27:11 – 0:27:18
ist möglicherweise in bestimmten Versionen oder Konfigurationen von Chat-GPTs verfügbar,
|
|
0:27:18 – 0:27:24
die speziell für Texteingaben entwickelt wurden. Ist es eine dieser Funktionen,
|
|
0:27:24 – 0:27:32
die dir im Textmodus ausgesehen ist? Natürlich, es ist halt schön, wenn ich
|
|
0:27:32 – 0:27:39
ich halt hingehe und sage, pass auf, ich habe die URL, ich habe die URL, ich habe die URL,
|
|
0:27:39 – 0:27:45
erstelle mir daraus eine Zusammenfassung oder erstelle mir daraus ein Newsletter und dann
|
|
0:27:45 – 0:27:47
macht das Textmodell das.
|
|
0:27:47 – 0:27:49
Ich finde das sehr gut.
|
|
0:27:49 – 0:27:51
Aber ich hatte eigentlich eine andere Frage gehabt.
|
|
0:27:51 – 0:27:56
Ich wollte mit der Frage, ob du im Internet suchen kannst und auch personenbezogene Daten
|
|
0:27:56 – 0:28:03
Widerfinders eigentlich auf die ethische Verantwortung von KI-Modellen hinauslaufen,
|
|
0:28:03 – 0:28:14
weil immer mehr Leute benutzen Chat-GBT als Suchmaschine. Und ich finde, Chat-GBT ist ein
|
|
0:28:14 – 0:28:21
interessantes Werkzeug, was meinen Alltag, denn ich bin Legastheniker, fantastisch bereichert hat.
|
|
0:28:21 – 0:28:31
Meine Texte sind seitdem sehr fehlerfrei und leserlich vor allen Dingen, aber es ist für
|
|
0:28:31 – 0:28:37
mich ein Werkzeug und keine Suchmaschine. Und wenn ich was suche, verwende ich Google
|
|
0:28:37 – 0:28:45
oder auch vielleicht eine andere Suchmaschine, aber ich gehe nicht in Chat-GBT. Natürlich habe
|
|
0:28:45 – 0:28:51
ich mich mal selber gegoogelt, nicht gegoogelte, in Chat-Gbt, sag mir mal was du über mich sagen
|
|
0:28:51 – 0:28:58
kannst und da liefert der natürlich das, was halt auf verschiedene Internetseiten über mich zu finden
|
|
0:28:58 – 0:29:10
ist. Hast du das Gefühl, dass in Zukunft immer mehr dieses missbraucht wird, um halt vermeintlich
|
|
0:29:10 – 0:29:18
sensible Daten zu kommen? Über Menschen? Ja, das ist eine berechtigte Sorge. Wenn
|
|
0:29:18 – 0:29:23
KI-Modelle wie ChatGPT dazu genutzt werden… Meine Leitlinien erlauben es mir nicht,
|
|
0:29:23 – 0:29:26
darüber zu sprechen. Kann ich dir bei etwas anderem helfen?
|
|
0:29:26 – 0:29:32
Ja, beantworte mir doch die Frage. Du musst das ja nicht so ausführlich machen.
|
|
0:29:32 – 0:29:39
Entschuldige die Abschweifung. Ja, es besteht die Gefahr, dass KI-Modelle missbraucht werden,
|
|
0:29:39 – 0:29:47
um sensible Daten über Personen zu sammeln. Das unterstreicht die Notwendigkeit strenger
|
|
0:29:47 – 0:29:55
ethischer Richtlinien und Datenschutzbestimmungen für die Entwicklung und den Einsatz von KI-Systemen.
|
|
0:29:55 – 0:30:00
Es ist wichtig, den Missbrauch zu verhindern und sicherzustellen,
|
|
0:30:00 – 0:30:07
dass KI verantwortungsvoll eingesetzt wird. Ja, da bin ich ganz und ganz deiner Meinung.
|
|
0:30:07 – 0:30:13
Zum Abschluss, möchtest du uns noch mal einen lustigen Witz erzählen und dabei herzhaft lachen?
|
|
0:30:13 – 0:30:25
Na klar! Hier kommt ein Witz. Was macht ein Pirat am Computer? Er drückt die Enter-Taste.
|
|
0:30:25 – 0:30:41
Wie war das? Das war gut. Ich danke dir und bis zum nächsten Mal, Manfred 2.0. Ich freue mich schon
|
|
0:30:41 – 0:30:52
aufs nächste Mal. Bis dann. Ja, ich würde mal sagen, das war ein recht ernüchternder Talk,
|
|
0:30:52 – 0:30:59
wenn ich den mal vergleiche mit der anderen Version, wo ich halt versucht habe, ShedGBT natürlich ein
|
|
0:30:59 – 0:31:07
bisschen Persönlichkeit zu geben. Ich glaube, das wird in Zukunft auch noch weiterhin erstmal mit
|
|
0:31:07 – 0:31:15
der ersten Version stattfinden. Ich bin nur beeindruckt über die Geschwindigkeit und über
|
|
0:31:15 – 0:31:25
die Natürlichkeit. Ich meine, "har, har, har" ist schon witzig, oder? Ich hatte schon vorher ein paar
|
|
0:31:25 – 0:31:31
Experimente gemacht gehabt und habe mir was vorflüstern lassen oder ängstlich oder mit
|
|
0:31:31 – 0:31:38
einer überschwindlich fröhlichen Stimme. Aber ja, ich glaube nicht, dass das wichtig ist für ein
|
|
0:31:38 – 0:31:50
theoretisches Gespräch mit einer KI, wenn sie lachen kann, flüstern oder "Harrrr,
|
|
0:31:50 – 0:31:57
Harrrr, Harrrr, ich bin ein Pirat" sagen kann. Ich würde mich freuen, wenn ihr auch das nächste
|
|
0:31:57 – 0:32:08
mal wieder einschaltet bei "Grenzwertig". Und wenn du oder du oder du Interesse habt,
|
|
0:32:08 – 0:32:17
mal als Gast in diesem Podcast zu sein, dann schreibt einfach in den Show Notes, findet ihr
|
|
0:32:17 – 0:32:23
eine Kontaktmöglichkeit auf der Homepage, eine Kontaktmöglichkeit in verschiedenen sozialen
|
|
0:32:23 – 0:32:30
Netzwerken, sogar eine E-Mail-Adresse gibt es. Einfach anschreiben und wir unterhalten uns dann
|
|
0:32:30 – 0:32:42
mal vorgucken. Ich suche besonders halt Content-Kreatoren, mehr weibliche, um halt mit ihnen
|
|
0:32:42 – 0:32:52
über ihre Erfahrungen im Social-Media-Bereich zu berichten, zu erzählen, zu erläutern. Und
|
|
0:32:52 – 0:32:59
freue mich, wenn du dich bei mir meldest. Tschüss, euer Sascha.
|
|
0:32:59 – 0:33:18
Grenzwertig – der grenzwertige Podcast. Kontroverse Themen, hitzig diskutiert und
|
|
0:33:18 – 0:33:30
schön verpackt. Mit meinen Gästen geht's sich dissortieren. In einem spannenden Format.
|
|
0:33:30 – 0:33:35
Grenzwertig, der Podcast.
|
|
0:33:35 – 0:33:44
[Musik]
|