„Wikipedia Diskussion:WikiProjekt KI und Wikipedia“ – Versionsunterschied

aus Wikipedia, der freien Enzyklopädie
Letzter Kommentar: vor 19 Tagen von Wortulo in Abschnitt Zukunftskongress Wikipedia Fortführung
Zur Navigation springen Zur Suche springen
Inhalt gelöscht Inhalt hinzugefügt
Zeile 162: Zeile 162:
[https://www.welt.de/wirtschaft/webwelt/article253843954/Halluzinations-Problem-Der-muehsame-Kampf-gegen-die-Dummheit-der-KI.html Benedikt Fuest: Halluzinations-Problem. Der mühsame Kampf gegen die Dummheit der K¡] WELT Wirtschaft vom 7.10.24
[https://www.welt.de/wirtschaft/webwelt/article253843954/Halluzinations-Problem-Der-muehsame-Kampf-gegen-die-Dummheit-der-KI.html Benedikt Fuest: Halluzinations-Problem. Der mühsame Kampf gegen die Dummheit der K¡] WELT Wirtschaft vom 7.10.24
{{Zitat| Manchmal fallen sie erst auf den zweiten Blick auf: Doch KI-Programme machen immer noch enorme Fehler. Das liegt nicht zuletzt an einem zentralen Problem. Längst suchen Forscher nach Lösungen – ein deutsches Unternehmen hat dabei einen eigenen Ausweg „Eine Möglichkeit, das Vertrauen in die Ergebnisse von LLMs zu erhöhen, besteht darin, die Ergebnisse mit Argumenten zu belegen, die klar und leicht zu überprüfen sind – eine Eigenschaft, die wir Lesbarkeit nennen“, heißt es seitens des Forscher-Teams um den Neurowissenschaftler Jan Henrik Kirchner, das bei OpenAI daran geforscht hat, die Zuverlässigkeit der Ergebnisse zu verbessern. Dabei sind sie auf die Idee gekommen, nicht eine, sondern zwei künstliche Intelligenzen gemeinsam zu trainieren. Die erste KI, der „Beweiser“, generiert eine Antwort auf eine Frage. Die Zweite, der „Prüfer“, überprüft das Ergebnis darauf, ob der Lösungsweg nachvollziehbar ist.}} --[[Benutzer:Wortulo|Wortulo]] <small>([[Benutzer Diskussion:Wortulo|Disk.]] * [[Wikipedia:WikiProjekt KI und Wikipedia|KI-Projekt]])</small> 19:39, 8. Okt. 2024 (CEST)
{{Zitat| Manchmal fallen sie erst auf den zweiten Blick auf: Doch KI-Programme machen immer noch enorme Fehler. Das liegt nicht zuletzt an einem zentralen Problem. Längst suchen Forscher nach Lösungen – ein deutsches Unternehmen hat dabei einen eigenen Ausweg „Eine Möglichkeit, das Vertrauen in die Ergebnisse von LLMs zu erhöhen, besteht darin, die Ergebnisse mit Argumenten zu belegen, die klar und leicht zu überprüfen sind – eine Eigenschaft, die wir Lesbarkeit nennen“, heißt es seitens des Forscher-Teams um den Neurowissenschaftler Jan Henrik Kirchner, das bei OpenAI daran geforscht hat, die Zuverlässigkeit der Ergebnisse zu verbessern. Dabei sind sie auf die Idee gekommen, nicht eine, sondern zwei künstliche Intelligenzen gemeinsam zu trainieren. Die erste KI, der „Beweiser“, generiert eine Antwort auf eine Frage. Die Zweite, der „Prüfer“, überprüft das Ergebnis darauf, ob der Lösungsweg nachvollziehbar ist.}} --[[Benutzer:Wortulo|Wortulo]] <small>([[Benutzer Diskussion:Wortulo|Disk.]] * [[Wikipedia:WikiProjekt KI und Wikipedia|KI-Projekt]])</small> 19:39, 8. Okt. 2024 (CEST)

== Zukunftskongress Wikipedia Fortführung ==

[https://www.wikimedia.de/veranstaltungen/austausch-zu-zukunftsideen-fuer-die-wikipedia-online/ Am 16.10. wird der Zukunftskongress online fortgesetzt]. Punkt 5 ist "Technische Entwicklungen für Community nutzbar machen (z. B. Benutzerfreundlichkeit, Einbindung KI zur Unterstützung)". Für mich waren die Vorträge beim ersten Zukunftskongress ein Auslöser, hier mitzumachen und die Bedeutung zu erkennen. In Wiesbaden hatte ich nach dem Verhältnis zur Community gefragt und (ich hoffe, ich gebe das richtig wieder) man sucht auch die Zusammenarbeit, sieht die endgültige Verantwortung der Community und bündelt das Nachdenken über die Zukunft. Weil wir für dieses Projekt Wissen aus erster Hand brauchen (die besten Experten) und das Beschäftigen auch Ressourcen erfordert, sollte man über eine Zusammenarbeit in diesem Punkt nachdenken. Ich will das zumindest dort mal einbringen ({{Ping|Elisabeth Mandl (WMDE)}}) und bin gespannt, ob und wie wir das produktiv nutzen und die Gefahren einer "Verunreinigung" der Wissensbestände verhindern können. --[[Benutzer:Wortulo|Wortulo]] <small>([[Benutzer Diskussion:Wortulo|Disk.]] * [[Wikipedia:WikiProjekt KI und Wikipedia|KI-Projekt]])</small> 07:26, 11. Okt. 2024 (CEST)

Version vom 11. Oktober 2024, 06:26 Uhr

Intro
Diskussion
KI allgemein
KI+Texte
KI+Übersetzung
KI+Medien
KI+QS
KI+Hilfen
Team

Neues hier diskutieren oder ankündigen, dann die Essenz auf den Themen-Seiten ("Reitern" oben) darstellen. Im Intro das, was alle Einzelthemen betrifft.

Kürzere Demobeispiele hier eintragen, Für Längeres (bitte sparsam) kann man Unterseiten anlegen, dort als erste Zeile:

{{Wikipedia:WikiProjekt KI und Wikipedia/Navigation}}
Auf dieser Seite werden Abschnitte ab Überschriftenebene 2 automatisch archiviert, die seit 5 Tagen mit dem Baustein {{Erledigt|1=--~~~~}} versehen sind oder deren jüngster Beitrag 60 Tage alt ist.
Archiv
Wie wird ein Archiv angelegt?

Einsatz von KI in der Wikipedia

KI kann in sehr verschiedenen Stadien der Texterzeugung eingesetzt werden:

  1. Internetrecherche: viele wissen gar nicht, wie viel KI Google und Co bei der Suche verwenden
  2. Literaturrecherche: Durchsuchen von Datenbanken mit wissenschaftlichen Texten. Ergibt zum Teil bessere Ergebnisse als eine Suche ohne KI und ermöglicht bessere Korrelationen zwischen den Ergebnissen.
  3. Freie Texterzeugung: Nutzung von LLMs (das ist das, woran wir hauptsächlich denken)
  4. Zusammenfassung von Texten: Vereinfachung von Inhalten eines PDF inkl. einfacher Formulierungen (bedarf natürlich der nachträglichen Kontrolle)
  5. Vorschläge zur Allgemeinverständlichkeit und Vereinfachung von selbst geschriebenen Texten: deepl write, wortliga ...(statistische Auswertung der Texte und Vorschläge zur Verbesserung der Lesbarkeit) (vgl. DTS 96)
  6. Übersetzung fremdsprachlicher Texte: deepl translate ...
  7. Überprüfung von Rechtschreibung und Grammatik

Hilfe für den Betrieb von Wikipedia und Erleichterungen für den Leser:

  1. verbesserte Suche nach Inhalten (ähnlich der Websuche von Google mit kurzer Vorschau)
  2. Durchsuchen von Wikipediatexten anhand einer in natürlicher Sprache gestellten Frage (z.B. Wie alt ist der Sänger xyz?). Farbige Hervorhebung von entsprechenden Textpassagen im Text oder der Infobox.
  3. Beantwortung einer vom Leser gestellten Frage in einer separaten Antwortbox in allgemeinverständlicher Sprache (Zusammenfassung eines Abschnitts speziell auf den Leser zugeschnitten. Sprachniveau in den Leser-Einstellungen vorher auswählbar.)
  4. Überprüfung von Textänderungen und Warnungen für die Eingangskontrolle, wenn ein Text werbend oder sprachlich unpassend geschrieben ist oder bestimmte Arten von Vandalismus enthält. Hinweis, wenn Inhalte ergänzt werden, ohne dass eine Quelle angegeben wurde.
  5. Überprüfung, ob die angegebene Quelle die Aussage im Artikel enthält.
  6. ...

--Salino01 (Diskussion) 23:13, 5. Jul. 2024 (CEST)Beantworten

Zu Punkt 2.5 gibt es auch mehr Infos zu SIDE:
  • Maximilian Brose: Quellencheck: Künstliche Intelligenz hilft Wikipedia-Autoren. (mp3) Deutschlandfunk.de, 23. Oktober 2023, abgerufen am 6. August 2024.
  • Fabio Petroni, Samuel Broscheit, Aleksandra Piktus, Patrick Lewis, Gautier Izacard, Lucas Hosseini, Jane Dwivedi-Yu, Maria Lomeli, Timo Schick, Michele Bevilacqua, Pierre-Emmanuel Mazaré, Armand Joulin, Edouard Grave, Sebastian Riedel: Improving Wikipedia verifiability with AI. In: Nature Machine Intelligence. Band 5, Nr. 10, Oktober 2023, ISSN 2522-5839, S. 1142–1148, doi:10.1038/s42256-023-00726-1 (nature.com [abgerufen am 6. August 2024]).--Salino01 (Diskussion) 19:51, 6. Aug. 2024 (CEST)Beantworten
    Das SIDE-Tool von Facebook/Meta (zum Auffinden nicht verifizierbarer Belege und zum Vorschlagen von Ersatz für diese) könnte in der Tat potenziell sehr nützlich sein.
    Aber bevor sich jemand zu große Hoffnungen macht: Im Juli 2022 warnte der Hauptautor (inzwischen nicht mehr bei Meta tätig), dass "Side ein POC [Proof of Concept] ist, der zeigt, dass die Technologie vorhanden ist. Um ein Produktionssystem aufzubauen, ist noch viel zu tun. :)“ – und das Code-Repository hat in den zwei Jahren seitdem keine neuen Commits gesehen...
    Und selbst wenn der Code produktionsreif gemacht wird, werden die Serveranforderungen wahrscheinlich nicht unerheblich sein – allein die Modelle (die Meta lobenswerterweise unter einer freien Lizenz veröffentlicht hat) benötigen etwa 2 Terabyte Festplattenspeicher, was es beispielsweise wohl ausschließt, dies auf Toolforge zu hosten (eher schon auf der neuen "Lift Wing"-Infrastruktur der Foundation).
    Grüße, --HaeB (Diskussion) 00:44, 25. Aug. 2024 (CEST)Beantworten

Qualitätssicherung mit OpenAI

Hallo, ich habe auf der Unterseite Benutzer:Sinuhe20/QS mit KI mal nützliche Abfragen für z.B. Perplexity.ai gesammelt, die für die Qualitätssicherung von Artikeln nützlich sein könnten. Die Abfragen wurden selbst von Perplexity.ai generiert und gruppiert. Wer will kann gerne noch welche hinzufügen oder verbessern. Vielleicht könnte man die Liste auch im Bereich "QS+KI" verlinken. --Sinuhe20 (Diskussion) 22:57, 15. Aug. 2024 (CEST)Beantworten

Ich will hier das aus dem Kurier auch noch mal sagen. Du hast das ja hier im Kurier beschrieben und dort ist auch eine Diskussion am Laufen.
Die Fragen sind schon mal gut und zeigen die Richtung, wo es hingehen könnte. Heute "halluzinieren" die KI aber bekanntlich noch. Ich bin sicher, dass Ihr an ein Post-Editing denkt und die Sachen prüft. Zu dem Thema fehlt ein Artikel, weil das auch in der professionellen Übersetzungsszene immer mehr üblich wird: erst KI, dann Post-Editing. Insofern wären Beispiele und Erfahrungen wichtig, wie das praktisch ausgeht. Die Gefahr ist, dass einige das dann auch ungeprüft einbauen. Und wenn Wikipedia zumindest mit zum Training der KI eingesetzt wird, "verdünnen" wir selber den Wahrheitsgehalt des Wissens. Vielleicht können Du oder andere Anwender das dann auch noch mit berichten. Ich bau das noch hier unter QS ein. --Wortulo (Disk. * KI-Projekt) 06:59, 25. Aug. 2024 (CEST)Beantworten
Ja, Halluzinationen sind leider noch sehr häufig. Blind vertrauen sollte man den KI-Antworten nicht, eher als Ideen sehen, was man als Nächstes tun könnte. Man muss immer noch selbst entscheiden, ob diese Ideen gut oder schlecht sind. --Sinuhe20 (Diskussion) 17:41, 25. Aug. 2024 (CEST)Beantworten

Archivierung Diskussionsseite nach 60 Tagen - Eintragen von Überdauerndem auf die Themenseiten

Das Projekt versteht sich ja bisher vor allem als Informationssammlung zur KI, um das bisher verstreute Wissen zu sammeln und zentral zugänglich zu machen. Es ist der Versuch, dass sich die Wikipedia-Community dazu Meinungen bilden kann, weil nach meinem Verständnis bestimmte Änderungen auch Meinungsbilder erfordern können.

Alles Neue sollte man wie bisher auf der Diskussionsseite erwähnen. Damit die Diskussionsseite übersichtlich bleibt, habe ich zusätzlich zur Erledigung noch eine Archivierung nach 60 Tagen eingerichtet. Bei Widerspruch setze ich das zurück. Was als Information Bestand hat, sollte man in die Themenseiten (Reiter oben) eintragen. Im Intro das, was alle Themen betrifft, sonst nach den 5 Themen. Auch das ist dynamisch und kann verändert werden. Wir sind nicht auf der Flucht, wie man sagt - gute Übersichtlichkeit auch für "Spontanleser" schein aber wichtig. --Wortulo (Disk. * KI-Projekt) 07:31, 27. Aug. 2024 (CEST)Beantworten

KI-Fragen auf der WikiCon 2024 Wiesbaden 4. bis 6.10.

Laut vorläufigem Programmrahmen gibt es zu KI-Themen die folgenden Veranstaltungen, der Aspekt ist reich vertreten (falls ich was übersehen habe, bitte nachtragen). Wer nicht vor Ort sein kann, kann sich noch bis 3. Oktober für eine Online-Teilnahme anmelden.

Die KI fragen was man fragen soll

Wenn man keine zufriedenstellenden Ergebnisse bekommt, sollte man ChatGPT und Co. vielleicht erstmal fragen was man fragen soll. Und dann erhält man z.B. als Antwort, dass man statt "Schreibe einen Wikipedia-Artikel über ..." mit folgender Anfrage wohl mehr Erfolg hat:

Bitte erstelle einen ausführlichen, Wikipedia-ähnlichen Artikel über [Thema]. Der Artikel sollte folgende Elemente enthalten:
1. Eine kurze Einleitung, die das Thema zusammenfasst
2. Mehrere Hauptabschnitte mit Unterabschnitten, die verschiedene Aspekte des Themas behandeln
3. Objektive und faktenbasierte Informationen
4. Quellenangaben oder Hinweise, wo weitere Informationen zu finden sind
5. Eine neutrale, enzyklopädische Schreibweise
6. Wenn möglich, erwähne wichtige Daten, Personen oder Ereignisse im Zusammenhang mit dem Thema
7. Schließe mit einem kurzen Abschnitt ab, der die Bedeutung oder den aktuellen Stand des Themas zusammenfasst
Bitte strukturiere den Artikel mit entsprechenden Überschriften und Absätzen.

Je präziser die Anweisungen sind, um so besser weiß die KI was zu tun ist (trotzdem sollte man diese Texte aber nicht 1:1 übernehmen). --Sinuhe20 (Diskussion) 20:42, 4. Sep. 2024 (CEST)Beantworten

Neuer Reiter KI allgemein

Ich habe noch einen neuen Reiter KI allgemein eingeführt. Es ist abzusehen, dass allgemeine Vorträge und Publikationen zunehmen und die Übersicht auf Intro sprengen. Die Literatur zu dem Thema explodiert ja - man sollte nicht alles aufnehmen. Auch dort muss man dann gleitend eine gute Gliederung einführen nach Themen. --Wortulo (Disk. * KI-Projekt) 12:47, 5. Sep. 2024 (CEST)Beantworten

Generative KI verunreinigt Daten

Generative KI verunreinigt Daten Das Sprachanalyse-Projekt Wordfreq wird eingestellt, weil generative KI die verfügbaren Daten im Internet zu stark verunreinigt.

„Ursprünglich wurde mit dem Projekt das Internet durchsucht, um die sich ständig ändernde Popularität verschiedener Wörter im menschlichen Sprachgebrauch zu analysieren. Da mittlerweile zu viele große Sprachmodelle das Internet mit Inhalten geflutet hätten, die nicht von Menschen geschrieben seien, verzerrten diese die gesammelten Daten zu stark, erklärte Speer. Sie glaube nicht, dass irgendjemand zuverlässige Informationen über die Sprachverwendung nach dem Jahr 2021 habe.“

--Wortulo (Disk. * KI-Projekt) 17:29, 21. Sep. 2024 (CEST)Beantworten


Wie erkenne ich KI-generierte Menschen in Videos?

Laura Pomer auf Techbook

„In den digitalen Medien und zunehmend auch im Fernsehen begegnen uns immer öfter scheinbar echte, doch tatsächlich mit Künstlicher Intelligenz (KI) erzeugte Personen. Die Technologie wird stetig besser, was es auf der anderen Seite schwerer macht, KI-generierte Menschen in Videos zu erkennen. Doch wenn man ganz genau auf bestimmte Details achtet, gelingt es.“

--Wortulo (Disk. * KI-Projekt) 12:38, 23. Sep. 2024 (CEST)Beantworten

Google vs. KI: Suchmaschine will KI-generierte Bilder kennzeichnen

HARDWARELUXX auf CHIP

„Angesichts des derzeitigen Booms künstlicher Intelligenz sieht sich Google als Suchmaschinenanbieter mit einer wachsenden Zahl von Bildern konfrontiert, die durch KI erzeugt wurden. Diese sollen nun klar gekennzeichnet werden. Hierfür wird Google die Metadaten der Coalition for Content Provenance and Authenticity (C2PA) nutzen.

Bilder, die C2PA-Metadaten beinhalten, werden es Nutzern bald ermöglichen, über die Google-Suche, Google Lens und Circle Search zusätzliche Auskünfte darüber zu erhalten, ob die Bilder mit Hilfe von KI-Anwendungen erzeugt oder modifiziert wurden...

Die C2PA-Metadaten bieten die Möglichkeit, zu erkennen, ob ein Bild mit einer Kamera aufgezeichnet, mit Software modifiziert oder durch generative KI hergestellt wurde. Diese Daten sollen es den Benutzern erleichtern, besser informierte Entscheidungen über die Glaubwürdigkeit der Inhalte zu fällen.“

Wortulo (Disk. * KI-Projekt) 12:43, 23. Sep. 2024 (CEST)Beantworten

Langsamer, aber besser – OpenAI stellt KI-Modelle „o1“ vor

Langsamer, aber besser – OpenAI stellt KI-Modelle „o1“ vor Handelsblatt live vom 23.9.2024

„Die neue KI des ChatGPT-Entwicklers soll komplexe Probleme besser lösen als bisherige Varianten. OpenAI versucht dabei, dem menschlichen Denken näher zu kommen. Das hat Vor- und Nachteile.„Wir haben eine neue Reihe von KI-Modellen entwickelt, die mehr Zeit zum Nachdenken brauchen, bevor sie reagieren“, teilte OpenAI am Donnerstag mit. Durch ein spezielles Training hätten die Modelle laut OpenAI gelernt, „ihren Denkprozess zu verfeinern, verschiedene Strategien auszuprobieren und ihre Fehler zu erkennen“, heißt es in einem Blogbeitrag. In Tests, die die Firma selbst durchgeführt hat, sollen die o1-Modelle in Physik, Chemie und Biologie ähnlich gut abschneiden wie Doktoranden. OpenAI verwies vor allem auf den Fortschritt zu früheren Modellen: Bei einem Qualifikationstest für die Internationale Mathe-Olympiade habe das bis dato leistungsfähigste GPT-4o-Modell 13 Prozent der Aufgaben korrekt gelöst, das „Denkmodell“ 83 Prozent. Zu beachten: Solche Benchmarkings sind methodisch umstritten, aber derzeit das beste Verfahren, um KI-Modelle zu vergleichen.“

--Wortulo (Disk. * KI-Projekt) 16:38, 24. Sep. 2024 (CEST)Beantworten

KI-Experte enttäuscht: „Mittelmaß können wir jetzt automatisiert produzieren“

KI-Experte enttäuscht: „Mittelmaß können wir jetzt automatisiert produzieren“ newsroom.de 24.9.2024

„Von der anfänglichen Euphorie, Generative KI tauge allenfalls als „glamouröse Wortvervollständigungsmaschine“. Den Aufwand, um Fehler und Halluzinationen der Technik zu eliminieren, hätten viele, die heute auf KI setzen, deutlich überschätzt. Auch die Befürchtungen, KI würde kreative Arbeit ersetzen, hätten sich nicht erfüllt. Gerade mal „Mittelmaß können wir jetzt automatisiert produzieren““

--Wortulo (Disk. * KI-Projekt) 16:41, 24. Sep. 2024 (CEST)Beantworten

Stanford KI-Experiment "STORM" generiert Artikel im Wikipedia-Stil

The Decoder.de 25.9.2024

„Forschende der Stanford University haben mit STORM ein KI-System entwickelt, das die Vorbereitungsphase beim Schreiben von Wikipedia-Artikeln automatisiert. Es recherchiert selbstständig zu einem Thema, sammelt Quellen und erstellt eine detaillierte Gliederung.“

--Wortulo (Disk. * KI-Projekt) 18:56, 25. Sep. 2024 (CEST)Beantworten

Wikidata und Künstliche Intelligenz: Vereinfachter Zugang

Wikidata und Künstliche Intelligenz: Vereinfachter Zugang zu offenen Daten für Open-Source-Projekte blog.wikimedia.de

„Wikimedia Deutschland hat zusammen mit DataStax und Jina AI ein Projekt gestartet, das den Zugang zu den offenen Daten von Wikidata für KI-Anwendungen vereinfacht. Dadurch sollen nicht nur Tech-Giganten, sondern auch Open-Source-Initiativen die Möglichkeit haben, diese Daten zu nutzen. Ziel ist es, vor allem die Entwicklung von gemeinnützigen KI-Anwendungen auf der Grundlage offener und qualitativ hochwertiger Daten zu unterstützen...Wikimedia Deutschland hat im Dezember 2023 mit der Umsetzung dieses semantischen Suchkonzepts begonnen. Die ersten Beta-Tests eines Prototyps sind für 2025 geplant. Dieses Projekt ist eine große Chance, KI-Anwendungen und das Informationsökosystem zu verbessern und gleichzeitig die Grundwerte der Offenheit und Transparenz zu wahren.“

Ich sehe das Problem: Ist die Qualität von WIKIDATA wirklich so ausreichend, dass das eine Basis für "verlässliche Daten für alle" sein kann? Haben die dort eine ausreichende QS? --Wortulo (Disk. * KI-Projekt) 09:37, 27. Sep. 2024 (CEST)Beantworten

"Perplexity AI mischt die Internet-Suche auf"

Diese KI-Suchmaschine verändert das Internet Heyse online vom 29.9.2024

„KI-Suchmaschine, die Google herausfordert. Statt langer Suchergebnisse liefert Perplexity AI präzise Antworten auf komplexe Fragen und bietet dabei Zugang zu wissenschaftlichen Quellen, Social Media und Videos...“

Auch: Markus Schwarze:„Plexen“ soll das neue Googeln werden FAZ Pro vom 28.9.2024 Wortulo (Disk. * KI-Projekt) 17:58, 29. Sep. 2024 (CEST)Beantworten

Das krass. Hilft auch für uns über unsere Rolle zwischen all den Funktionen, Sprachmodellen usw. nachzudenken. --Jensbest (Diskussion) 13:17, 2. Okt. 2024 (CEST)Beantworten

Generative KI etabliert sich viel schneller als Internet und Computer

Holger Schmidt: Generative KI etabliert sich viel schneller als Internet und Computer FAZ PRO Digitalwirtschaft 2.10.2024

  • Mit Abbildung Nutzung nach Berufsfeldern in den USA, der Rest hinter Bezahlschranke

--Wortulo (Disk. * KI-Projekt) 12:50, 2. Okt. 2024 (CEST)Beantworten

Naja, das sagt alles und nichts. Wenn "40 Prozent der amerikanischen Bevölkerung im Alter zwischen 18 und 64 Jahren inzwischen generative KI nutzen", bedeutet dass nicht, dass sie bewusst wissen, was sie tun. Ebenso ist diese Technologie ja auf der Nutzung und dem grundlegenden Nutzerverständnis des Internets aufgesetzt. Somit also wenig überraschend und vorallem erstmal ohne groß qualitative Aussage, dass das jetzt so 'schnell' ging. --Jensbest (Diskussion) 12:58, 2. Okt. 2024 (CEST)Beantworten

suche KI zur Datenverarbeitung

Könnt ihr eine KI empfehlen, die gut ist, um Daten miteinander abzugleichen? Zum Beispiel eine Wikipedia-Tabelle mit einer diffusen Liste, mit jeweils mehreren Hundert Einträgen? Habe online nach kostenlosen Programmen gesucht, aber die Ergebnisse waren ernüchternd. Es ging beim letzten Mal zwar iiirgendwie, aber Problem 1 war, dass sie alle eine Zeichenbegrenzung für ihre Antwort haben und ich meine Anfrage deswegen auf 20 Anfragen splitten musste, und Problem 2, dass sie mir "in den Kram" wollten und die Daten nicht neutral bearbeiten, sondern noch versuchen, ihre eigene Meinung einzubringen, so dass ich dann nacharbeiten musste. Danke! Liebe Grüße,--Vergänglichkeit (Diskussion) 11:19, 6. Okt. 2024 (CEST)Beantworten

Ich habe das selber noch nicht gemacht, aber Copyleaks könnte man dazu entfemden? Das eine ist das Original und das andere die Kopie - ideal ist dann 100% "geklaut" ;-) Die bieten eine DEMO zumindest, aber ob das für grosse Datenmengen kostenlos geht, bin ich skeptisch. --Wortulo (Disk. * KI-Projekt) 17:52, 6. Okt. 2024 (CEST)Beantworten

Wie künstliche Intelligenz an Schule und Hochschule helfen kann

Wie künstliche Intelligenz an Schule und Hochschule helfen kann MDR Nachrichten 5. Oktober 2024

„Thesen: KI ist in Schulen und Unis angekommen, Mit KI erstellte Texte sind nicht zu erkennen, Studierende und Lehrende können von KI profitieren“

--Wortulo (Disk. * KI-Projekt) 08:41, 7. Okt. 2024 (CEST)Beantworten

Ab wann ist eine KI vertrauenswürdig?

Michael Lang, Richard Kraft: Ab wann ist eine KI vertrauenswürdig? Tagesschau vom 3.10.2024; siehe auch: MISSION KI – Neues Innovations- und Qualitätszentrum am DFKI eröffnet Pressemitteilung vom 19.7.2024

„Wie genau ein KI-Modell eine Entscheidung trifft, ist oft nicht nachvollziehbar - eine Tatsache, die den Einsatz etwa in der Medizin erschwert. Das neue Zentrum DFKI in Kaiserslautern will Transparenz schaffen. Ein wichtiger Bestandteil der Forschung ist es, KI-Anwendungen zu entwickeln, die transparent arbeiten. "Die Ergebnisse so zu erklären, dass sie annehmbar werden als Zweitmeinung, ist ganz essenziell" Im Zuge der "Mission KI" ist das DFKI das erste von zwei geplanten Zentren für die KI-Forschung. Das Projekt wurde von der Bundesregierung mit einem Gesamtbudget von 32 Millionen Euro unterstützt. Damit will der Bund die Entwicklung neuer, vertrauenswürdiger Künstlicher Intelligenzen vorantreiben.“

--Wortulo (Disk. * KI-Projekt) 08:50, 7. Okt. 2024 (CEST)Beantworten

Halluzinations-Problem: Der mühsame Kampf gegen die Dummheit der KI

Benedikt Fuest: Halluzinations-Problem. Der mühsame Kampf gegen die Dummheit der K¡ WELT Wirtschaft vom 7.10.24

„Manchmal fallen sie erst auf den zweiten Blick auf: Doch KI-Programme machen immer noch enorme Fehler. Das liegt nicht zuletzt an einem zentralen Problem. Längst suchen Forscher nach Lösungen – ein deutsches Unternehmen hat dabei einen eigenen Ausweg „Eine Möglichkeit, das Vertrauen in die Ergebnisse von LLMs zu erhöhen, besteht darin, die Ergebnisse mit Argumenten zu belegen, die klar und leicht zu überprüfen sind – eine Eigenschaft, die wir Lesbarkeit nennen“, heißt es seitens des Forscher-Teams um den Neurowissenschaftler Jan Henrik Kirchner, das bei OpenAI daran geforscht hat, die Zuverlässigkeit der Ergebnisse zu verbessern. Dabei sind sie auf die Idee gekommen, nicht eine, sondern zwei künstliche Intelligenzen gemeinsam zu trainieren. Die erste KI, der „Beweiser“, generiert eine Antwort auf eine Frage. Die Zweite, der „Prüfer“, überprüft das Ergebnis darauf, ob der Lösungsweg nachvollziehbar ist.“

--Wortulo (Disk. * KI-Projekt) 19:39, 8. Okt. 2024 (CEST)Beantworten

Zukunftskongress Wikipedia Fortführung

Am 16.10. wird der Zukunftskongress online fortgesetzt. Punkt 5 ist "Technische Entwicklungen für Community nutzbar machen (z. B. Benutzerfreundlichkeit, Einbindung KI zur Unterstützung)". Für mich waren die Vorträge beim ersten Zukunftskongress ein Auslöser, hier mitzumachen und die Bedeutung zu erkennen. In Wiesbaden hatte ich nach dem Verhältnis zur Community gefragt und (ich hoffe, ich gebe das richtig wieder) man sucht auch die Zusammenarbeit, sieht die endgültige Verantwortung der Community und bündelt das Nachdenken über die Zukunft. Weil wir für dieses Projekt Wissen aus erster Hand brauchen (die besten Experten) und das Beschäftigen auch Ressourcen erfordert, sollte man über eine Zusammenarbeit in diesem Punkt nachdenken. Ich will das zumindest dort mal einbringen (@Elisabeth Mandl (WMDE):) und bin gespannt, ob und wie wir das produktiv nutzen und die Gefahren einer "Verunreinigung" der Wissensbestände verhindern können. --Wortulo (Disk. * KI-Projekt) 07:26, 11. Okt. 2024 (CEST)Beantworten