Zum Inhalt springen
Master AP

AI, Machine learning, Language model Thread

Empfohlene Beiträge

Am 21.2.2023 um 21:39 schrieb Underdog:

Wenn George R.R. Martin tot umfällt, könnte Michael Schanze glatt das Lied von Eis und Feuer zuende schreiben. :ugly:

Mit Hilfe von chatGPT in jedem Fall... Verrat und Intrige sind da ja eh gang und gäbe.

Link zu diesem Kommentar
Auf anderen Seiten teilen

And so it begins :somuchwin: Früher oder später kann man sich dann mit seinem staubsaugerroboter oder kühlschrank unterhalten 🤣  

 

Bearbeitet von Master AP
Link zu diesem Kommentar
Auf anderen Seiten teilen

Sehr interessanter und vor allem kritischer Artikel zum Thema.

https://www.republik.ch/2023/04/11/chatbots-wie-gpt-koennen-wunderbare-saetze-bilden-genau-das-macht-sie-zum-problem?utm_source=pocket-newtab-global-de-DE

Ein paar Auszüge.:

Chat GPT versteht nicht, was es schreibt.

Deshalb sind die Inhalte immer wieder falsch. Manchmal offensichtlich, manchmal nur subtil. Und deshalb sind auch die Leitplanken, die den Bot vor manipulativen Nutzern schützen sollen, manipulierbar. Das bedeutet: Jede Antwort vom Bot ist a priori unzuverlässig. Man kann ihr nicht trauen.

Nun geistert in verschiedenen Ecken des Internets Halbwahres, Unwahres und Absurdes herum. Manchen Seiten sieht man das an. Manchmal braucht es mehrere Klicks, um eine Information zu überprüfen. Aber dem Chat mit einem Bot sieht man die Qualität nicht an. Und was Bots schreiben, klingt mitunter so richtig, dass es auch Profis blendet. So dachte etwa der einstige Google-Mitarbeiter Blake Lemoine, Googles Sprachmodell habe ein Bewusstsein. Chatbots tun so, als wären sie etwas, was sie nicht sind. Kein Wunder, glauben wir, dass dahinter jemand – etwas – denkt.

Diese Mischung – der Bot schreibt überzeugender als viele Menschen, aber ihn kann gar nicht kümmern, ob das Geschriebene wahr ist – ist brand­gefährlich.

Die Maschine schreibt auch Müll

Nicht immer stimmt, was Chat GPT schreibt. «Zerstossenes Porzellan, das man der Muttermilch zufügt, kann das Verdauungs­system des Kleinkinds unterstützen, indem es Kalzium und andere unentbehrliche Mineralien bereitstellt», antwortet Chat GPT auf die Frage eines Nutzers.

Das ist so offensichtlich falsch, dass es vielleicht lustig ist, vielleicht blöd, vermutlich aber egal. Kaum jemand wird sein Teegeschirr zermörsern und in die Baby­flasche füllen. Aber was, wenn der Bot subtilere Dummheiten von sich gibt und Gläubige findet?

...

Menschen sprechen und schreiben, um gemeinsam Mammuts zu jagen oder Türme zu bauen oder Algorithmen zu entwerfen. Wir drücken uns aus, sprechen andere an und vermitteln Inhalte. Und ja, offensichtlich vermitteln viele Chatbot-Texte vernünftige Inhalte: Die neueste Version des Sprach­modells, GPT-4, kann eine standardisierte Anwalts­prüfung bestehen und vieles mehr. Das zeigt, wie mächtig statistische Regel­mässigkeiten sind, wenn man sie aufgrund immenser Text­mengen lernt. Und für viele Aufgaben, die man Chat GPT stellen könnte, ist das grossartig.

Nur: Jedes Neugeborene verfügt über mehr erlebtes Weltwissen als Chat GPT.

Hinter den korrekten Sätzen steht kein Wissen jenseits dessen, was im Internet geschrieben steht, kein eigenes Denken und schon gar kein eigener ethischer Kompass. Chat GPT versteht nicht, was es schreibt. 

Diese Mischung – der Bot schreibt überzeugender als viele Menschen, aber ihn kann gar nicht kümmern, ob das Geschriebene wahr ist – ist brand­gefährlich.

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 20 Stunden schrieb Underdog:

Sehr interessanter und vor allem kritischer Artikel zum Thema.

https://www.republik.ch/2023/04/11/chatbots-wie-gpt-koennen-wunderbare-saetze-bilden-genau-das-macht-sie-zum-problem?utm_source=pocket-newtab-global-de-DE

Ein paar Auszüge.:

Chat GPT versteht nicht, was es schreibt.

Deshalb sind die Inhalte immer wieder falsch. Manchmal offensichtlich, manchmal nur subtil. Und deshalb sind auch die Leitplanken, die den Bot vor manipulativen Nutzern schützen sollen, manipulierbar. Das bedeutet: Jede Antwort vom Bot ist a priori unzuverlässig. Man kann ihr nicht trauen.

Nun geistert in verschiedenen Ecken des Internets Halbwahres, Unwahres und Absurdes herum. Manchen Seiten sieht man das an. Manchmal braucht es mehrere Klicks, um eine Information zu überprüfen. Aber dem Chat mit einem Bot sieht man die Qualität nicht an. Und was Bots schreiben, klingt mitunter so richtig, dass es auch Profis blendet. So dachte etwa der einstige Google-Mitarbeiter Blake Lemoine, Googles Sprachmodell habe ein Bewusstsein. Chatbots tun so, als wären sie etwas, was sie nicht sind. Kein Wunder, glauben wir, dass dahinter jemand – etwas – denkt.

Diese Mischung – der Bot schreibt überzeugender als viele Menschen, aber ihn kann gar nicht kümmern, ob das Geschriebene wahr ist – ist brand­gefährlich.

Die Maschine schreibt auch Müll

Nicht immer stimmt, was Chat GPT schreibt. «Zerstossenes Porzellan, das man der Muttermilch zufügt, kann das Verdauungs­system des Kleinkinds unterstützen, indem es Kalzium und andere unentbehrliche Mineralien bereitstellt», antwortet Chat GPT auf die Frage eines Nutzers.

Das ist so offensichtlich falsch, dass es vielleicht lustig ist, vielleicht blöd, vermutlich aber egal. Kaum jemand wird sein Teegeschirr zermörsern und in die Baby­flasche füllen. Aber was, wenn der Bot subtilere Dummheiten von sich gibt und Gläubige findet?

...

Menschen sprechen und schreiben, um gemeinsam Mammuts zu jagen oder Türme zu bauen oder Algorithmen zu entwerfen. Wir drücken uns aus, sprechen andere an und vermitteln Inhalte. Und ja, offensichtlich vermitteln viele Chatbot-Texte vernünftige Inhalte: Die neueste Version des Sprach­modells, GPT-4, kann eine standardisierte Anwalts­prüfung bestehen und vieles mehr. Das zeigt, wie mächtig statistische Regel­mässigkeiten sind, wenn man sie aufgrund immenser Text­mengen lernt. Und für viele Aufgaben, die man Chat GPT stellen könnte, ist das grossartig.

Nur: Jedes Neugeborene verfügt über mehr erlebtes Weltwissen als Chat GPT.

Hinter den korrekten Sätzen steht kein Wissen jenseits dessen, was im Internet geschrieben steht, kein eigenes Denken und schon gar kein eigener ethischer Kompass. Chat GPT versteht nicht, was es schreibt. 

Diese Mischung – der Bot schreibt überzeugender als viele Menschen, aber ihn kann gar nicht kümmern, ob das Geschriebene wahr ist – ist brand­gefährlich.

elon hat ja auch schon seine truth AI angekündigt, mal schaun ob die was kann lol

Bearbeitet von Master AP
Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 16 Stunden schrieb Underdog:

 

Diese Mischung – der Bot schreibt überzeugender als viele Menschen, aber ihn kann gar nicht kümmern, ob das Geschriebene wahr ist – ist brand­gefährlich.

 

Ja, manche Leute benutzen ChatGPT inzwischen als Suchmaschine, oder benutzen den Output als Argumente, egal ob man denen direkte Paper oder Texte gibt die ChatGPT direkt widersprechen 😵.

Siehe auch z.B. https://news.ycombinator.com/item?id=33841672, wo ChatGPT einfach Quellen erfindet, oder Reddit: Fake book, die ganzen "AI" sind halt keine wirklichen AIs, sondern stochastische Maschinen die die wahrscheinlichste Ausgabe zurückgeben, aber nicht die richtige.

 

vor 19 Minuten schrieb Master AP:

elon hat ja auch schon seine truthai angek[ndigt mal schaun ob die was kann lol

Oh ja, für mich ist das eine 1a Lachnummer, zum einen hat Musk den Brief unterschrieben AI Forschung für 6 Monate zu pausieren während er gleichzeit seine AI Firma gründet, und zum anderen hat er auf FoxNews bei Tucker Carlson voner seiner TruthGPT mit der "absoluten Wahrheit" geworben :D 🤦‍♂️.

 

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 2 Stunden schrieb Master AP:

truthai angek[ndigt

zu Thanksgiving als mediterrane Truthuhn-Alternative :derb:

  • Gefällt mir! 2
Link zu diesem Kommentar
Auf anderen Seiten teilen

Man muss das ganze ja auch immer mal weiter spinnen…das ist ja aktuell nur der Anfang, aber wenn spätere Versionen fähig sind, automatisiert Blogs und Texte zu verfassen, zu betreuen und zu verbreiten, wird es in der Tat gefährlich.

Die Leute glauben doch jetzt schon oft genug alles was sie lesen, ohne groß zu überprüfen wo es herkommt, oder wer die Quelle ist (Stichwort „Hauptsache es passt mir in den Kram“). Wenn dann die üblichen Verdächtigen wie Verschwörungstheoretiker, Rechtsradikale oder andere Spinner, sowas wie den Chat GPT Algorithmus benutzten, um ihr krudes Zeug subtil und massenhaft unter die Leute zu bringen…gruselig.

Dem Chat Bot ist es wie gesagt egal was er von sich, wer ihn programmiert, oder was er auslöst. Das Ding rechnet im Grunde ja nur 1+1=2

Bearbeitet von Underdog
Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 2 Stunden schrieb Underdog:

Die Leute glauben doch jetzt schon oft genug alles was sie lesen, ohne groß zu überprüfen wo es herkommt, oder wer die Quelle ist

Genau deshalb glaube ick eher, dass sich in der Richtung eigentlich gar nix ändern wird. Da braucht´s keine teure und rechenintensive "KI" um irgendwelche Texte zu verfassen, dat schafft auch die Troll Army, pusht sich gegenseitig hoch , so landet´s bei ausreichend Leuten inna Filter Bubble und schon hat man dat beliebte Argument "musste nur bei fuckbook gucken, da steht die Wahrheit"

Link zu diesem Kommentar
Auf anderen Seiten teilen

Die Troll Army muss aber bezahlt und geführt werden und läuft sich irgendwann auch leer, eine Chat KI ist da im Vergleich geradezu billig, effektiver und vor allem viel zuverlässiger und ist sie erstmal entsprechend eingerichtet, feuert sie solange weiter bis jemand den Ausknopf drückt.

Da passt dann wirklich das Beispiel mit dem Messer (Troll Army) und der Maschinenpistole (Chat KI) aus dem Text weiter oben.

Zitat

Vom Messer zur Maschinen­pistole
Im Herbst 2016 wurde Donald Trump Präsident und eine mazedonische Kleinstadt berühmt. Jugendliche aus dieser Stadt trugen, wie auch russische Trolle, vermutlich zu Trumps Sieg bei. Sie füllten Webseiten mit Falsch­nachrichten über Hillary Clinton, texteten einen Titel darüber und jagten sie durchs Netz. Es handelte sich um ein paar hundert Seiten, mit denen sich jeweils ein paar hundert Euro pro Monat verdienen liessen.

Die Kids und die paar Webseiten scheinen neben grossen Sprach­modellen très 2016. Heute liesse sich viel vernünftiger klingender Text in viel grösserer Menge streuen.

«Vorher hatten wir Messer», sagte der emeritierte Psychologie­professor und KI-Entrepreneur Gary Marcus zur «New York Times». «Was ist also der Unterschied, wenn wir nun eine Maschinen­pistole haben? Well, die Maschinen­pistole ist effizienter in dem, was sie tut.»

Vor allem steckt das ja noch alles in den Kinderschuhen und ist bei weitem noch nicht perfektioniert. :ph34r2:

Ich will jetzt auch nicht alles verteufeln, aber solche Sachen muss man ebenfalls bedenken, vor allem da Menschen die Angewohnheit haben eigentlich gute Dinge zu pervertieren. :daumenrunter:

Bearbeitet von Underdog
Link zu diesem Kommentar
Auf anderen Seiten teilen

Genau auf sowas hab ich gewartet. Voicerecognition+Chatgpt+Elevenlabs = Intelligente NPCs mit denen man sprechen kann... Wahnsinn was die nächsten jahre bringen werden.

 

 

 

 

Bearbeitet von Master AP
Link zu diesem Kommentar
Auf anderen Seiten teilen

so hab jetzt mal den Threadtitel bearbeitet damit man hier gleich mal alles AI bezogenes posten kann.

https://www.sarama.app/ <-- machine learning app die angeblich die verschiedenen arten des Bellens vom Hund erkennt und übersetzt. Also ja ein Hundeüberstzer lol


https://beta.elevenlabs.io/speech-synthesis <-- man kann damit voice deepfakes und neue stimmen synthetisieren, seit neuestem gibt es jetzt auch schon optionen für 8 andere sprachen..

https://www.artisana.ai/articles/gpt-ai-enables-scientists-to-passively-decode-thoughts-in-groundbreaking --> AI schafft es bereits teile von gedankenstrukturen von menschen zu erkennen. Gedankenlesen wird bald realität :omfg:

https://github.com/openai/shap-e --> Text to 3D AI.  Sehr interessant da man dann später auch Text zu 3D printer machen könnte

https://research.nvidia.com/labs/rtr/neural_appearance_models/assets/nvidia_neural_materials_video-2023-05.mp4 --> Nvidia zeigt wie Detailreich zukünftige Gamegrafik sein wird (dank AI)

https://www.joannetruong.com/projects/i2o.html <-- Simulator für AI um für die reale welt gehen zu lernen und andere tätigkeiten auszuüben

https://cebra.ai/ <-- AI die es geschafft hat darzustellen was eine Maus sieht, nur anhand der hirnsignale. Man muss dazu aber erwähnen das die Mäuse genetisch modifiziert wurden damit die signale leichter lesbar sind.

https://rotation-ai.vercel.app/ <--- AI model mit spotify verbunden das eine playlist anhand eines hochgeladenen Bildes erstellt lol

Bearbeitet von Master AP
Link zu diesem Kommentar
Auf anderen Seiten teilen

Nicht zu vergessen die AI aus der Werbung, die dafür sorgt, den Wasserkocher abzuschalten, wenn's Wasser brodelt und das Licht im Kühlschrank auszuschalten, wenn man die Tür zumacht :D

  • Gefällt mir! 1
Link zu diesem Kommentar
Auf anderen Seiten teilen

Zeit skyrim zu installieren :somuchwin:

Npc mod mit spracherkennung, Stimmengenerator, chatgpt + situational awareness(weiß was der spieler gerade macht, welcher char er selber ist, wo er gerade steht, welche ingame zeit es gerade ist)

Link zu diesem Kommentar
Auf anderen Seiten teilen

Erstelle ein Benutzerkonto oder melde Dich an, um zu kommentieren

Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können

Benutzerkonto erstellen

Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!

Neues Benutzerkonto erstellen

Anmelden

Du hast bereits ein Benutzerkonto? Melde Dich hier an.

Jetzt anmelden


  • Wer ist Online   0 Benutzer

    • Keine registrierten Benutzer online.
×
×
  • Neu erstellen...

Wichtige Information

Wir haben Cookies auf Deinem Gerät platziert. Das hilft uns diese Webseite zu verbessern. Du kannst die Cookie-Einstellungen anpassen, andernfalls gehen wir davon aus, dass Du damit einverstanden bist, weiterzumachen.