„Wikipedia Diskussion:WikiProjekt KI und Wikipedia“ – Versionsunterschied
Neuer Abschnitt →Zukunftskongress Wikipedia Fortführung |
|||
Zeile 162: | Zeile 162: | ||
[https://www.welt.de/wirtschaft/webwelt/article253843954/Halluzinations-Problem-Der-muehsame-Kampf-gegen-die-Dummheit-der-KI.html Benedikt Fuest: Halluzinations-Problem. Der mühsame Kampf gegen die Dummheit der K¡] WELT Wirtschaft vom 7.10.24 |
[https://www.welt.de/wirtschaft/webwelt/article253843954/Halluzinations-Problem-Der-muehsame-Kampf-gegen-die-Dummheit-der-KI.html Benedikt Fuest: Halluzinations-Problem. Der mühsame Kampf gegen die Dummheit der K¡] WELT Wirtschaft vom 7.10.24 |
||
{{Zitat| Manchmal fallen sie erst auf den zweiten Blick auf: Doch KI-Programme machen immer noch enorme Fehler. Das liegt nicht zuletzt an einem zentralen Problem. Längst suchen Forscher nach Lösungen – ein deutsches Unternehmen hat dabei einen eigenen Ausweg „Eine Möglichkeit, das Vertrauen in die Ergebnisse von LLMs zu erhöhen, besteht darin, die Ergebnisse mit Argumenten zu belegen, die klar und leicht zu überprüfen sind – eine Eigenschaft, die wir Lesbarkeit nennen“, heißt es seitens des Forscher-Teams um den Neurowissenschaftler Jan Henrik Kirchner, das bei OpenAI daran geforscht hat, die Zuverlässigkeit der Ergebnisse zu verbessern. Dabei sind sie auf die Idee gekommen, nicht eine, sondern zwei künstliche Intelligenzen gemeinsam zu trainieren. Die erste KI, der „Beweiser“, generiert eine Antwort auf eine Frage. Die Zweite, der „Prüfer“, überprüft das Ergebnis darauf, ob der Lösungsweg nachvollziehbar ist.}} --[[Benutzer:Wortulo|Wortulo]] <small>([[Benutzer Diskussion:Wortulo|Disk.]] * [[Wikipedia:WikiProjekt KI und Wikipedia|KI-Projekt]])</small> 19:39, 8. Okt. 2024 (CEST) |
{{Zitat| Manchmal fallen sie erst auf den zweiten Blick auf: Doch KI-Programme machen immer noch enorme Fehler. Das liegt nicht zuletzt an einem zentralen Problem. Längst suchen Forscher nach Lösungen – ein deutsches Unternehmen hat dabei einen eigenen Ausweg „Eine Möglichkeit, das Vertrauen in die Ergebnisse von LLMs zu erhöhen, besteht darin, die Ergebnisse mit Argumenten zu belegen, die klar und leicht zu überprüfen sind – eine Eigenschaft, die wir Lesbarkeit nennen“, heißt es seitens des Forscher-Teams um den Neurowissenschaftler Jan Henrik Kirchner, das bei OpenAI daran geforscht hat, die Zuverlässigkeit der Ergebnisse zu verbessern. Dabei sind sie auf die Idee gekommen, nicht eine, sondern zwei künstliche Intelligenzen gemeinsam zu trainieren. Die erste KI, der „Beweiser“, generiert eine Antwort auf eine Frage. Die Zweite, der „Prüfer“, überprüft das Ergebnis darauf, ob der Lösungsweg nachvollziehbar ist.}} --[[Benutzer:Wortulo|Wortulo]] <small>([[Benutzer Diskussion:Wortulo|Disk.]] * [[Wikipedia:WikiProjekt KI und Wikipedia|KI-Projekt]])</small> 19:39, 8. Okt. 2024 (CEST) |
||
== Zukunftskongress Wikipedia Fortführung == |
|||
[https://www.wikimedia.de/veranstaltungen/austausch-zu-zukunftsideen-fuer-die-wikipedia-online/ Am 16.10. wird der Zukunftskongress online fortgesetzt]. Punkt 5 ist "Technische Entwicklungen für Community nutzbar machen (z. B. Benutzerfreundlichkeit, Einbindung KI zur Unterstützung)". Für mich waren die Vorträge beim ersten Zukunftskongress ein Auslöser, hier mitzumachen und die Bedeutung zu erkennen. In Wiesbaden hatte ich nach dem Verhältnis zur Community gefragt und (ich hoffe, ich gebe das richtig wieder) man sucht auch die Zusammenarbeit, sieht die endgültige Verantwortung der Community und bündelt das Nachdenken über die Zukunft. Weil wir für dieses Projekt Wissen aus erster Hand brauchen (die besten Experten) und das Beschäftigen auch Ressourcen erfordert, sollte man über eine Zusammenarbeit in diesem Punkt nachdenken. Ich will das zumindest dort mal einbringen ({{Ping|Elisabeth Mandl (WMDE)}}) und bin gespannt, ob und wie wir das produktiv nutzen und die Gefahren einer "Verunreinigung" der Wissensbestände verhindern können. --[[Benutzer:Wortulo|Wortulo]] <small>([[Benutzer Diskussion:Wortulo|Disk.]] * [[Wikipedia:WikiProjekt KI und Wikipedia|KI-Projekt]])</small> 07:26, 11. Okt. 2024 (CEST) |
Version vom 11. Oktober 2024, 06:26 Uhr
Intro |
Diskussion |
KI allgemein |
KI+Texte |
KI+Übersetzung |
KI+Medien |
KI+QS |
KI+Hilfen |
Team |
Neues hier diskutieren oder ankündigen, dann die Essenz auf den Themen-Seiten ("Reitern" oben) darstellen. Im Intro das, was alle Einzelthemen betrifft. Kürzere Demobeispiele hier eintragen, Für Längeres (bitte sparsam) kann man Unterseiten anlegen, dort als erste Zeile: {{Wikipedia:WikiProjekt KI und Wikipedia/Navigation}} |
Auf dieser Seite werden Abschnitte ab Überschriftenebene 2 automatisch archiviert, die seit 5 Tagen mit dem Baustein {{Erledigt|1=--~~~~}} versehen sind oder deren jüngster Beitrag 60 Tage alt ist. |
Archiv |
Wie wird ein Archiv angelegt? |
Einsatz von KI in der Wikipedia
KI kann in sehr verschiedenen Stadien der Texterzeugung eingesetzt werden:
- Internetrecherche: viele wissen gar nicht, wie viel KI Google und Co bei der Suche verwenden
- Literaturrecherche: Durchsuchen von Datenbanken mit wissenschaftlichen Texten. Ergibt zum Teil bessere Ergebnisse als eine Suche ohne KI und ermöglicht bessere Korrelationen zwischen den Ergebnissen.
- Freie Texterzeugung: Nutzung von LLMs (das ist das, woran wir hauptsächlich denken)
- Zusammenfassung von Texten: Vereinfachung von Inhalten eines PDF inkl. einfacher Formulierungen (bedarf natürlich der nachträglichen Kontrolle)
- Vorschläge zur Allgemeinverständlichkeit und Vereinfachung von selbst geschriebenen Texten: deepl write, wortliga ...(statistische Auswertung der Texte und Vorschläge zur Verbesserung der Lesbarkeit) (vgl. DTS 96)
- Übersetzung fremdsprachlicher Texte: deepl translate ...
- Überprüfung von Rechtschreibung und Grammatik
Hilfe für den Betrieb von Wikipedia und Erleichterungen für den Leser:
- verbesserte Suche nach Inhalten (ähnlich der Websuche von Google mit kurzer Vorschau)
- Durchsuchen von Wikipediatexten anhand einer in natürlicher Sprache gestellten Frage (z.B. Wie alt ist der Sänger xyz?). Farbige Hervorhebung von entsprechenden Textpassagen im Text oder der Infobox.
- Beantwortung einer vom Leser gestellten Frage in einer separaten Antwortbox in allgemeinverständlicher Sprache (Zusammenfassung eines Abschnitts speziell auf den Leser zugeschnitten. Sprachniveau in den Leser-Einstellungen vorher auswählbar.)
- Überprüfung von Textänderungen und Warnungen für die Eingangskontrolle, wenn ein Text werbend oder sprachlich unpassend geschrieben ist oder bestimmte Arten von Vandalismus enthält. Hinweis, wenn Inhalte ergänzt werden, ohne dass eine Quelle angegeben wurde.
- Überprüfung, ob die angegebene Quelle die Aussage im Artikel enthält.
- ...
--Salino01 (Diskussion) 23:13, 5. Jul. 2024 (CEST)
- Zu Punkt 2.5 gibt es auch mehr Infos zu SIDE:
- Maximilian Brose: Quellencheck: Künstliche Intelligenz hilft Wikipedia-Autoren. (mp3) Deutschlandfunk.de, 23. Oktober 2023, abgerufen am 6. August 2024.
- Fabio Petroni, Samuel Broscheit, Aleksandra Piktus, Patrick Lewis, Gautier Izacard, Lucas Hosseini, Jane Dwivedi-Yu, Maria Lomeli, Timo Schick, Michele Bevilacqua, Pierre-Emmanuel Mazaré, Armand Joulin, Edouard Grave, Sebastian Riedel: Improving Wikipedia verifiability with AI. In: Nature Machine Intelligence. Band 5, Nr. 10, Oktober 2023, ISSN 2522-5839, S. 1142–1148, doi:10.1038/s42256-023-00726-1 (nature.com [abgerufen am 6. August 2024]). --Salino01 (Diskussion) 19:51, 6. Aug. 2024 (CEST)
- Das SIDE-Tool von Facebook/Meta (zum Auffinden nicht verifizierbarer Belege und zum Vorschlagen von Ersatz für diese) könnte in der Tat potenziell sehr nützlich sein.
- Aber bevor sich jemand zu große Hoffnungen macht: Im Juli 2022 warnte der Hauptautor (inzwischen nicht mehr bei Meta tätig), dass "Side ein POC [Proof of Concept] ist, der zeigt, dass die Technologie vorhanden ist. Um ein Produktionssystem aufzubauen, ist noch viel zu tun. :)“ – und das Code-Repository hat in den zwei Jahren seitdem keine neuen Commits gesehen...
- Und selbst wenn der Code produktionsreif gemacht wird, werden die Serveranforderungen wahrscheinlich nicht unerheblich sein – allein die Modelle (die Meta lobenswerterweise unter einer freien Lizenz veröffentlicht hat) benötigen etwa 2 Terabyte Festplattenspeicher, was es beispielsweise wohl ausschließt, dies auf Toolforge zu hosten (eher schon auf der neuen "Lift Wing"-Infrastruktur der Foundation).
- Grüße, --HaeB (Diskussion) 00:44, 25. Aug. 2024 (CEST)
Qualitätssicherung mit OpenAI
Hallo, ich habe auf der Unterseite Benutzer:Sinuhe20/QS mit KI mal nützliche Abfragen für z.B. Perplexity.ai gesammelt, die für die Qualitätssicherung von Artikeln nützlich sein könnten. Die Abfragen wurden selbst von Perplexity.ai generiert und gruppiert. Wer will kann gerne noch welche hinzufügen oder verbessern. Vielleicht könnte man die Liste auch im Bereich "QS+KI" verlinken. --Sinuhe20 (Diskussion) 22:57, 15. Aug. 2024 (CEST)
- Ich will hier das aus dem Kurier auch noch mal sagen. Du hast das ja hier im Kurier beschrieben und dort ist auch eine Diskussion am Laufen.
- Die Fragen sind schon mal gut und zeigen die Richtung, wo es hingehen könnte. Heute "halluzinieren" die KI aber bekanntlich noch. Ich bin sicher, dass Ihr an ein Post-Editing denkt und die Sachen prüft. Zu dem Thema fehlt ein Artikel, weil das auch in der professionellen Übersetzungsszene immer mehr üblich wird: erst KI, dann Post-Editing. Insofern wären Beispiele und Erfahrungen wichtig, wie das praktisch ausgeht. Die Gefahr ist, dass einige das dann auch ungeprüft einbauen. Und wenn Wikipedia zumindest mit zum Training der KI eingesetzt wird, "verdünnen" wir selber den Wahrheitsgehalt des Wissens. Vielleicht können Du oder andere Anwender das dann auch noch mit berichten. Ich bau das noch hier unter QS ein. --Wortulo (Disk. * KI-Projekt) 06:59, 25. Aug. 2024 (CEST)
- Ja, Halluzinationen sind leider noch sehr häufig. Blind vertrauen sollte man den KI-Antworten nicht, eher als Ideen sehen, was man als Nächstes tun könnte. Man muss immer noch selbst entscheiden, ob diese Ideen gut oder schlecht sind. --Sinuhe20 (Diskussion) 17:41, 25. Aug. 2024 (CEST)
Archivierung Diskussionsseite nach 60 Tagen - Eintragen von Überdauerndem auf die Themenseiten
Das Projekt versteht sich ja bisher vor allem als Informationssammlung zur KI, um das bisher verstreute Wissen zu sammeln und zentral zugänglich zu machen. Es ist der Versuch, dass sich die Wikipedia-Community dazu Meinungen bilden kann, weil nach meinem Verständnis bestimmte Änderungen auch Meinungsbilder erfordern können.
Alles Neue sollte man wie bisher auf der Diskussionsseite erwähnen. Damit die Diskussionsseite übersichtlich bleibt, habe ich zusätzlich zur Erledigung noch eine Archivierung nach 60 Tagen eingerichtet. Bei Widerspruch setze ich das zurück. Was als Information Bestand hat, sollte man in die Themenseiten (Reiter oben) eintragen. Im Intro das, was alle Themen betrifft, sonst nach den 5 Themen. Auch das ist dynamisch und kann verändert werden. Wir sind nicht auf der Flucht, wie man sagt - gute Übersichtlichkeit auch für "Spontanleser" schein aber wichtig. --Wortulo (Disk. * KI-Projekt) 07:31, 27. Aug. 2024 (CEST)
KI-Fragen auf der WikiCon 2024 Wiesbaden 4. bis 6.10.
Laut vorläufigem Programmrahmen gibt es zu KI-Themen die folgenden Veranstaltungen, der Aspekt ist reich vertreten (falls ich was übersehen habe, bitte nachtragen). Wer nicht vor Ort sein kann, kann sich noch bis 3. Oktober für eine Online-Teilnahme anmelden.
- Künstliche Intelligenz im Wissenszeitalter: Revolution der Informationsbeschaffung und -rezeption 5.10. 11:00 bis 12:30 Moderation: Alice Wiegand (auch Online-Teilnahme möglich): Podium mit Gästen. Das knüpft am Zukunftskongress von Wikimedia-DE an: In dieser Podiumsdiskussion soll der Frage nachgegangen werden, welchen Einfluss KI-basierte Technologien wie Chatbots und personalisierte Algorithmen auf die Zugänglichkeit und Rezeption von Informationen haben, welche Herausforderungen und Chancen sich daraus ergeben und welchen Einfluss dies auf Wikipedia hat.
- Wikipedia-Zukunftskongress: Erkenntnisse und Perspektiven für die Zukunft der Online-Enzyklopädie diskutieren 5.10. 10:00 bis 11:30 Moderation und Dokumentation: Elisabeth Mandl (WMDE), Nina Leseberg (WMDE), Verena Lindner (WMDE), Claude Beier (WMDE), Lorna Baars (WMDE) (nur vor Ort im "Eventspace") als Kurzinput und Diskussionsrunde. Es sollen alle Fragen des Zukunftskongresses diskutiert werden, wo einer der jetzt genannten 8 "Thementische" Technische Entwicklungen für Community nutzbar machen: KI-Tools, Benutzerfreundlichkeit, Vernetzung und mehr als Thema hat.
- Verständlichkeit von Wikipediaartikeln 4.10.2024 18:15 bis 19:00, Salino01 (auch Online-Teilnahme möglich): Wir werden uns anhand eines Beispiels ansehen, wie man die Lesebarkeit von Artikeln für Laien verbessern kann und wie uns die KI dabei möglicherweise unterstützen kann...
- KI für den Kleinkram – Como: eine Human-in-the-Loop Plattform für Wikimedia-Projekte 5.10. 2024, 10:30 bis 10:45 Kristbaum (auch online): Alle Inhalte in Wikimedia Projekten sollten von Menschen geprüft sein, das macht für das Hochladen einer Menge kleiner (KI-generierter) Bearbeitungen sehr viel Arbeit. Como versucht diese Arbeit auf die Schultern (und Smartphones) vieler zu verteilen, und macht vielleicht sogar Spaß?
- Gute KI – böse KI. Welche Arbeit darf der Computer den Fotograf*innen abnehmen? 5.10. 14:30-15:15 (auch online) Harald Krichel, Martin Kraft: Beschreibung: Die Entwicklung künstlicher Intelligenz hat in den letzten Jahren rasante Fortschritte gemacht, auch in der grafischen Produktion. Von einfacher Retusche bis zur kompletten Bilderstellung ist alles möglich. Wir wollen einen Überblick über diese Möglichkeiten geben und mit euch über die sinnvollen Grenzen des KI-Einsatzes für Wikipedia sprechen. Wortulo (Disk. * KI-Projekt) 07:31, 27. Aug. 2024 (CEST)
- Weiterhin gibt es auch noch eine Keynote zum Thema Wissen im Zeitalter der KI – Wie Algorithmen unsere Informationsaufnahme revolutionieren. --Holder (Diskussion) 13:44, 2. Sep. 2024 (CEST)
- Stimmt, 4.10. 17:45 bis 18:00 (auch online, wirklich nur 15 Minuten?) Referent: Dietram A. Scheufele. Wortulo (Disk. * KI-Projekt) 19:22, 2. Sep. 2024 (CEST)
- Ja, nur 15 min, da eine reine Keynote. --Holder (Diskussion) 19:31, 2. Sep. 2024 (CEST)
- Stimmt, 4.10. 17:45 bis 18:00 (auch online, wirklich nur 15 Minuten?) Referent: Dietram A. Scheufele. Wortulo (Disk. * KI-Projekt) 19:22, 2. Sep. 2024 (CEST)
- Weiterhin gibt es auch noch eine Keynote zum Thema Wissen im Zeitalter der KI – Wie Algorithmen unsere Informationsaufnahme revolutionieren. --Holder (Diskussion) 13:44, 2. Sep. 2024 (CEST)
Die KI fragen was man fragen soll
Wenn man keine zufriedenstellenden Ergebnisse bekommt, sollte man ChatGPT und Co. vielleicht erstmal fragen was man fragen soll. Und dann erhält man z.B. als Antwort, dass man statt "Schreibe einen Wikipedia-Artikel über ..." mit folgender Anfrage wohl mehr Erfolg hat:
Bitte erstelle einen ausführlichen, Wikipedia-ähnlichen Artikel über [Thema]. Der Artikel sollte folgende Elemente enthalten: 1. Eine kurze Einleitung, die das Thema zusammenfasst 2. Mehrere Hauptabschnitte mit Unterabschnitten, die verschiedene Aspekte des Themas behandeln 3. Objektive und faktenbasierte Informationen 4. Quellenangaben oder Hinweise, wo weitere Informationen zu finden sind 5. Eine neutrale, enzyklopädische Schreibweise 6. Wenn möglich, erwähne wichtige Daten, Personen oder Ereignisse im Zusammenhang mit dem Thema 7. Schließe mit einem kurzen Abschnitt ab, der die Bedeutung oder den aktuellen Stand des Themas zusammenfasst Bitte strukturiere den Artikel mit entsprechenden Überschriften und Absätzen.
Je präziser die Anweisungen sind, um so besser weiß die KI was zu tun ist (trotzdem sollte man diese Texte aber nicht 1:1 übernehmen). --Sinuhe20 (Diskussion) 20:42, 4. Sep. 2024 (CEST)
Neuer Reiter KI allgemein
Ich habe noch einen neuen Reiter KI allgemein eingeführt. Es ist abzusehen, dass allgemeine Vorträge und Publikationen zunehmen und die Übersicht auf Intro sprengen. Die Literatur zu dem Thema explodiert ja - man sollte nicht alles aufnehmen. Auch dort muss man dann gleitend eine gute Gliederung einführen nach Themen. --Wortulo (Disk. * KI-Projekt) 12:47, 5. Sep. 2024 (CEST)
Generative KI verunreinigt Daten
Generative KI verunreinigt Daten Das Sprachanalyse-Projekt Wordfreq wird eingestellt, weil generative KI die verfügbaren Daten im Internet zu stark verunreinigt.
„Ursprünglich wurde mit dem Projekt das Internet durchsucht, um die sich ständig ändernde Popularität verschiedener Wörter im menschlichen Sprachgebrauch zu analysieren. Da mittlerweile zu viele große Sprachmodelle das Internet mit Inhalten geflutet hätten, die nicht von Menschen geschrieben seien, verzerrten diese die gesammelten Daten zu stark, erklärte Speer. Sie glaube nicht, dass irgendjemand zuverlässige Informationen über die Sprachverwendung nach dem Jahr 2021 habe.“
--Wortulo (Disk. * KI-Projekt) 17:29, 21. Sep. 2024 (CEST)
Wie erkenne ich KI-generierte Menschen in Videos?
„In den digitalen Medien und zunehmend auch im Fernsehen begegnen uns immer öfter scheinbar echte, doch tatsächlich mit Künstlicher Intelligenz (KI) erzeugte Personen. Die Technologie wird stetig besser, was es auf der anderen Seite schwerer macht, KI-generierte Menschen in Videos zu erkennen. Doch wenn man ganz genau auf bestimmte Details achtet, gelingt es.“
--Wortulo (Disk. * KI-Projekt) 12:38, 23. Sep. 2024 (CEST)
Google vs. KI: Suchmaschine will KI-generierte Bilder kennzeichnen
„Angesichts des derzeitigen Booms künstlicher Intelligenz sieht sich Google als Suchmaschinenanbieter mit einer wachsenden Zahl von Bildern konfrontiert, die durch KI erzeugt wurden. Diese sollen nun klar gekennzeichnet werden. Hierfür wird Google die Metadaten der Coalition for Content Provenance and Authenticity (C2PA) nutzen.
Bilder, die C2PA-Metadaten beinhalten, werden es Nutzern bald ermöglichen, über die Google-Suche, Google Lens und Circle Search zusätzliche Auskünfte darüber zu erhalten, ob die Bilder mit Hilfe von KI-Anwendungen erzeugt oder modifiziert wurden...
Die C2PA-Metadaten bieten die Möglichkeit, zu erkennen, ob ein Bild mit einer Kamera aufgezeichnet, mit Software modifiziert oder durch generative KI hergestellt wurde. Diese Daten sollen es den Benutzern erleichtern, besser informierte Entscheidungen über die Glaubwürdigkeit der Inhalte zu fällen.“
Wortulo (Disk. * KI-Projekt) 12:43, 23. Sep. 2024 (CEST)
Langsamer, aber besser – OpenAI stellt KI-Modelle „o1“ vor
Langsamer, aber besser – OpenAI stellt KI-Modelle „o1“ vor Handelsblatt live vom 23.9.2024
„Die neue KI des ChatGPT-Entwicklers soll komplexe Probleme besser lösen als bisherige Varianten. OpenAI versucht dabei, dem menschlichen Denken näher zu kommen. Das hat Vor- und Nachteile.„Wir haben eine neue Reihe von KI-Modellen entwickelt, die mehr Zeit zum Nachdenken brauchen, bevor sie reagieren“, teilte OpenAI am Donnerstag mit. Durch ein spezielles Training hätten die Modelle laut OpenAI gelernt, „ihren Denkprozess zu verfeinern, verschiedene Strategien auszuprobieren und ihre Fehler zu erkennen“, heißt es in einem Blogbeitrag. In Tests, die die Firma selbst durchgeführt hat, sollen die o1-Modelle in Physik, Chemie und Biologie ähnlich gut abschneiden wie Doktoranden. OpenAI verwies vor allem auf den Fortschritt zu früheren Modellen: Bei einem Qualifikationstest für die Internationale Mathe-Olympiade habe das bis dato leistungsfähigste GPT-4o-Modell 13 Prozent der Aufgaben korrekt gelöst, das „Denkmodell“ 83 Prozent. Zu beachten: Solche Benchmarkings sind methodisch umstritten, aber derzeit das beste Verfahren, um KI-Modelle zu vergleichen.“
--Wortulo (Disk. * KI-Projekt) 16:38, 24. Sep. 2024 (CEST)
KI-Experte enttäuscht: „Mittelmaß können wir jetzt automatisiert produzieren“
KI-Experte enttäuscht: „Mittelmaß können wir jetzt automatisiert produzieren“ newsroom.de 24.9.2024
„Von der anfänglichen Euphorie, Generative KI tauge allenfalls als „glamouröse Wortvervollständigungsmaschine“. Den Aufwand, um Fehler und Halluzinationen der Technik zu eliminieren, hätten viele, die heute auf KI setzen, deutlich überschätzt. Auch die Befürchtungen, KI würde kreative Arbeit ersetzen, hätten sich nicht erfüllt. Gerade mal „Mittelmaß können wir jetzt automatisiert produzieren““
--Wortulo (Disk. * KI-Projekt) 16:41, 24. Sep. 2024 (CEST)
Stanford KI-Experiment "STORM" generiert Artikel im Wikipedia-Stil
„Forschende der Stanford University haben mit STORM ein KI-System entwickelt, das die Vorbereitungsphase beim Schreiben von Wikipedia-Artikeln automatisiert. Es recherchiert selbstständig zu einem Thema, sammelt Quellen und erstellt eine detaillierte Gliederung.“
--Wortulo (Disk. * KI-Projekt) 18:56, 25. Sep. 2024 (CEST)
Wikidata und Künstliche Intelligenz: Vereinfachter Zugang
Wikidata und Künstliche Intelligenz: Vereinfachter Zugang zu offenen Daten für Open-Source-Projekte blog.wikimedia.de
„Wikimedia Deutschland hat zusammen mit DataStax und Jina AI ein Projekt gestartet, das den Zugang zu den offenen Daten von Wikidata für KI-Anwendungen vereinfacht. Dadurch sollen nicht nur Tech-Giganten, sondern auch Open-Source-Initiativen die Möglichkeit haben, diese Daten zu nutzen. Ziel ist es, vor allem die Entwicklung von gemeinnützigen KI-Anwendungen auf der Grundlage offener und qualitativ hochwertiger Daten zu unterstützen...Wikimedia Deutschland hat im Dezember 2023 mit der Umsetzung dieses semantischen Suchkonzepts begonnen. Die ersten Beta-Tests eines Prototyps sind für 2025 geplant. Dieses Projekt ist eine große Chance, KI-Anwendungen und das Informationsökosystem zu verbessern und gleichzeitig die Grundwerte der Offenheit und Transparenz zu wahren.“
Ich sehe das Problem: Ist die Qualität von WIKIDATA wirklich so ausreichend, dass das eine Basis für "verlässliche Daten für alle" sein kann? Haben die dort eine ausreichende QS? --Wortulo (Disk. * KI-Projekt) 09:37, 27. Sep. 2024 (CEST)
"Perplexity AI mischt die Internet-Suche auf"
Diese KI-Suchmaschine verändert das Internet Heyse online vom 29.9.2024
„KI-Suchmaschine, die Google herausfordert. Statt langer Suchergebnisse liefert Perplexity AI präzise Antworten auf komplexe Fragen und bietet dabei Zugang zu wissenschaftlichen Quellen, Social Media und Videos...“
Auch: Markus Schwarze:„Plexen“ soll das neue Googeln werden FAZ Pro vom 28.9.2024 Wortulo (Disk. * KI-Projekt) 17:58, 29. Sep. 2024 (CEST)
- Das krass. Hilft auch für uns über unsere Rolle zwischen all den Funktionen, Sprachmodellen usw. nachzudenken. --Jensbest (Diskussion) 13:17, 2. Okt. 2024 (CEST)
Generative KI etabliert sich viel schneller als Internet und Computer
Holger Schmidt: Generative KI etabliert sich viel schneller als Internet und Computer FAZ PRO Digitalwirtschaft 2.10.2024
- Mit Abbildung Nutzung nach Berufsfeldern in den USA, der Rest hinter Bezahlschranke
--Wortulo (Disk. * KI-Projekt) 12:50, 2. Okt. 2024 (CEST)
- Naja, das sagt alles und nichts. Wenn "40 Prozent der amerikanischen Bevölkerung im Alter zwischen 18 und 64 Jahren inzwischen generative KI nutzen", bedeutet dass nicht, dass sie bewusst wissen, was sie tun. Ebenso ist diese Technologie ja auf der Nutzung und dem grundlegenden Nutzerverständnis des Internets aufgesetzt. Somit also wenig überraschend und vorallem erstmal ohne groß qualitative Aussage, dass das jetzt so 'schnell' ging. --Jensbest (Diskussion) 12:58, 2. Okt. 2024 (CEST)
suche KI zur Datenverarbeitung
Könnt ihr eine KI empfehlen, die gut ist, um Daten miteinander abzugleichen? Zum Beispiel eine Wikipedia-Tabelle mit einer diffusen Liste, mit jeweils mehreren Hundert Einträgen? Habe online nach kostenlosen Programmen gesucht, aber die Ergebnisse waren ernüchternd. Es ging beim letzten Mal zwar iiirgendwie, aber Problem 1 war, dass sie alle eine Zeichenbegrenzung für ihre Antwort haben und ich meine Anfrage deswegen auf 20 Anfragen splitten musste, und Problem 2, dass sie mir "in den Kram" wollten und die Daten nicht neutral bearbeiten, sondern noch versuchen, ihre eigene Meinung einzubringen, so dass ich dann nacharbeiten musste. Danke! Liebe Grüße,--Vergänglichkeit (Diskussion) 11:19, 6. Okt. 2024 (CEST)
- Ich habe das selber noch nicht gemacht, aber Copyleaks könnte man dazu entfemden? Das eine ist das Original und das andere die Kopie - ideal ist dann 100% "geklaut" ;-) Die bieten eine DEMO zumindest, aber ob das für grosse Datenmengen kostenlos geht, bin ich skeptisch. --Wortulo (Disk. * KI-Projekt) 17:52, 6. Okt. 2024 (CEST)
Wie künstliche Intelligenz an Schule und Hochschule helfen kann
Wie künstliche Intelligenz an Schule und Hochschule helfen kann MDR Nachrichten 5. Oktober 2024
„Thesen: KI ist in Schulen und Unis angekommen, Mit KI erstellte Texte sind nicht zu erkennen, Studierende und Lehrende können von KI profitieren“
--Wortulo (Disk. * KI-Projekt) 08:41, 7. Okt. 2024 (CEST)
Ab wann ist eine KI vertrauenswürdig?
Michael Lang, Richard Kraft: Ab wann ist eine KI vertrauenswürdig? Tagesschau vom 3.10.2024; siehe auch: MISSION KI – Neues Innovations- und Qualitätszentrum am DFKI eröffnet Pressemitteilung vom 19.7.2024
„Wie genau ein KI-Modell eine Entscheidung trifft, ist oft nicht nachvollziehbar - eine Tatsache, die den Einsatz etwa in der Medizin erschwert. Das neue Zentrum DFKI in Kaiserslautern will Transparenz schaffen. Ein wichtiger Bestandteil der Forschung ist es, KI-Anwendungen zu entwickeln, die transparent arbeiten. "Die Ergebnisse so zu erklären, dass sie annehmbar werden als Zweitmeinung, ist ganz essenziell" Im Zuge der "Mission KI" ist das DFKI das erste von zwei geplanten Zentren für die KI-Forschung. Das Projekt wurde von der Bundesregierung mit einem Gesamtbudget von 32 Millionen Euro unterstützt. Damit will der Bund die Entwicklung neuer, vertrauenswürdiger Künstlicher Intelligenzen vorantreiben.“
--Wortulo (Disk. * KI-Projekt) 08:50, 7. Okt. 2024 (CEST)
Halluzinations-Problem: Der mühsame Kampf gegen die Dummheit der KI
Benedikt Fuest: Halluzinations-Problem. Der mühsame Kampf gegen die Dummheit der K¡ WELT Wirtschaft vom 7.10.24
„Manchmal fallen sie erst auf den zweiten Blick auf: Doch KI-Programme machen immer noch enorme Fehler. Das liegt nicht zuletzt an einem zentralen Problem. Längst suchen Forscher nach Lösungen – ein deutsches Unternehmen hat dabei einen eigenen Ausweg „Eine Möglichkeit, das Vertrauen in die Ergebnisse von LLMs zu erhöhen, besteht darin, die Ergebnisse mit Argumenten zu belegen, die klar und leicht zu überprüfen sind – eine Eigenschaft, die wir Lesbarkeit nennen“, heißt es seitens des Forscher-Teams um den Neurowissenschaftler Jan Henrik Kirchner, das bei OpenAI daran geforscht hat, die Zuverlässigkeit der Ergebnisse zu verbessern. Dabei sind sie auf die Idee gekommen, nicht eine, sondern zwei künstliche Intelligenzen gemeinsam zu trainieren. Die erste KI, der „Beweiser“, generiert eine Antwort auf eine Frage. Die Zweite, der „Prüfer“, überprüft das Ergebnis darauf, ob der Lösungsweg nachvollziehbar ist.“
--Wortulo (Disk. * KI-Projekt) 19:39, 8. Okt. 2024 (CEST)
Zukunftskongress Wikipedia Fortführung
Am 16.10. wird der Zukunftskongress online fortgesetzt. Punkt 5 ist "Technische Entwicklungen für Community nutzbar machen (z. B. Benutzerfreundlichkeit, Einbindung KI zur Unterstützung)". Für mich waren die Vorträge beim ersten Zukunftskongress ein Auslöser, hier mitzumachen und die Bedeutung zu erkennen. In Wiesbaden hatte ich nach dem Verhältnis zur Community gefragt und (ich hoffe, ich gebe das richtig wieder) man sucht auch die Zusammenarbeit, sieht die endgültige Verantwortung der Community und bündelt das Nachdenken über die Zukunft. Weil wir für dieses Projekt Wissen aus erster Hand brauchen (die besten Experten) und das Beschäftigen auch Ressourcen erfordert, sollte man über eine Zusammenarbeit in diesem Punkt nachdenken. Ich will das zumindest dort mal einbringen (@Elisabeth Mandl (WMDE):) und bin gespannt, ob und wie wir das produktiv nutzen und die Gefahren einer "Verunreinigung" der Wissensbestände verhindern können. --Wortulo (Disk. * KI-Projekt) 07:26, 11. Okt. 2024 (CEST)