Kategorie: AI

  • ChatGPT wird zum echten Personal Assistant – Das neue Memory-Update

    ChatGPT wird zum echten Personal Assistant – Das neue Memory-Update

    Am 10. April 2025 hat OpenAI ein zentrales Feature in ChatGPT grundlegend erweitert: die Memory Funktion. Mit dem jüngsten Update nutzt ChatGPT nicht nur explizit gespeicherte Informationen sondern greift nun auch auf die gesamte Chat-Historie zu, um künftige Konversationen kontextueller, relevanter und persönlicher zu gestalten. Damit wird ChatGPT zunehmend zu einem persönlicher digitalen Assistenten mit „echter“ Erinnerung. Das revolutioniert den Umgang mit ChatGPT und macht es gleichzeitig zu Teilen auch unbrauchbar.

    Zuerst die Facts, dann die Meinung und einige Tipps.

    Die Memory Funktion – Zwei Arten von Erinnerung

    Das neue Memory-System basiert auf zwei Mechanismen:

    1. Saved Memories: Informationen, die Nutzerinnen und Nutzer bewusst speichern lassen oder von ChatGPT transparent selbst gespeichert wurde – etwa persönliche Ansprache, Tonalität, Namen, Orte, Projekte, Schreibstil oder Präferenzen im Sprachgebrauch.

    2. Chat History Referencing: Automatisch generierte Einsichten aus sämtlichen bisherigen Konversationen. Diese werden ohne explizites Speichern herangezogen, um Antworten besser auf den individuellen Kontext abzustimmen.

    Beide Systeme lassen sich in den Einstellungen gezielt deaktivieren. Wer auf das Feature verzichten will, kann entweder das gesamte Memory-Feature deaktivieren oder einzelne Konversationen als „Temporary Chat“ führen, welche keine Spuren im Gedächtnis hinterlassen.

    ChatGPT Settings: Memory Funktionen verwalten

    Viel Dafür und Vieles dagegen

    Ich habe den Rollout gestern live miterlebt. In einem neuen Chat für die Erstellung eines Fachartikels habe ich bemerkt, dass plötzlich persönliche Aspekte und Informationen aus vergangenen Chats eingeflossen sind. Einerseits war ich positiv überrascht, wie persönlich sich Dialoge auf einmal anhören. Aber sie waren in diesem Moment und in diesem Kontext komplett deplaziert. Aber zuerst das grosse Potenzial.

    Hot!

    „Juniper“ – Meine Assistentin fragt aktiver nach, macht Vorschläge für nächste Schritte in der Konversation, das fühlt sich langsam nach einer echten persönlichen Assistenz an. Vor allem im Advanced Audio-Mode sind Dialoge flüssig und fühlen sich nach echter Konversation an. Meilen weg von Siri, Gemini Plus und Co.. Da werden die permanenten Erinnerungen helfen, schneller wieder in vergangene Konversationen einzusteigen und Dialoge zielgerichteter zu führen. Gerade in Kombination mit der Meta Ray-Ban wird Juniper zur Gesprächspartnerin während der Autofahrt oder auf der Wanderung.

    Ich bin begeistert! Ein weiterer Schritt zum Personal Assistant, den ich mittels Custom Instructions schon sehr gut an meine Bedürfnisse bezüglich Sprache, Schweizer Rechtschreibung, Tonalität, aber auch mit Humor und Scheduled Tasks an mich „angewöhnt“ habe.

    Gleichzeitig macht es ChatGPT für viele sachliche Anwendungen unbrauchbar.

    Not so hot.

    Bereits am ersten Tag zeigen sich aber auch die Limitationen der neuen Funktion. ChatGPT weiss wie mein Hund heisst, weiss detailliert an welchen Projekten ich gerade arbeite (darunter auch noch nicht öffentlich bekannte), welche Rezepte ich für das Foodblog noch im Entwurf habe – Sehr cool und spooky zugleich. Das Problem ist, das ChatGPT (noch) nicht versteht, in welcher Rolle und in welchem Kontext ich mich gerade befinde.

    Ich nutze meinen privaten ChatGPT Account für eine Vielzahl von Themen und in unterschiedlichen Rollen. Hauptsächlich für Fachthemen als Studiengangsleiter, als Foodie für Rezepte, als „Writer Ralph“, der praktisch jeden Tag etwas schreibt, als kreativer Kopf mit vielen (nicht öffentlichen) Projekten, als Vater mit Vater-Sohn Projekten, als Fricktaler Outdoor Fan, als Hobby Programmierer mit grossem Unterstützungsbedarf und, und, und..  

    Es wird verwirrend, wenn ChatGPt mir während sachlichen Recherchen immer wieder „Memories“ aus meinen unterschiedlichen Rollen einspielt. Abhilfe schafft, dass ich angefangen habe fachliche und sachliche Recherchen einfach in Claude.AI, Perplexity oder immer mehr auch wieder Gemini einzusetzen oder für bestimmte Zwecke gleich ein CustomGPT einzurichten, dass nur für eine bestimmte Rolle dient.

    Das bewirkt eine klare Veränderung meines Medienverhaltens: EInfache, alltägliche „Suchanfragen“ gehen wieder zurück nach Google / Gemini, fachliche Recherchearbeit vermehrt in Perplexity, Claude.ai, Notbook LM oder auch weiteren Plattformen mit DeepSearch Funktionalität.

    Was ich schon immer strikte praktiziere ist: Geschäftliche Daten oder vertrauliche Inhalte waren noch nie im privaten Account. Dafür gibt es einen Enterprise Account und Co-Pilot. Stell Dir vor, ChatGPT erinnert sich an klassifizierte Inhalte und streut diese in künftigen Dialogen ein.

    Und dann sind wir gleich auch beim Thema Datenschutz. Wie wohl ist es Dir, mit all diesen Informationen auf den OpenAI Servern? Ich bin mir immer bewusst, welche Themen ich hier anspreche. Oder auch nicht.

    Fazit für mich. ChatGPT is still one of a kind! Ich werde ChatGPT konsequent als meinen Personal Assistant trimmen und all diese Funktionen hyperpersönlich verwenden wollen. Ein Langzeitexperiment sozusagen. Gleichzeitig eigne ich mir ein erweitertes Toolset an, in welchem ich weiterhin neutral unterwegs oder ein spezifische CustomGPTs für spezifische Zwecke und Rollen erstelle.

    Now the Fun Part

    Wer die Memory Funktion eingeschaltet hat, kann (auch) auf spielerische Weise schauen, was ChatGPT aus den vergangenen Konversationen soll alles auf einen schliesst.

    Beispiel Prompt:

    Describe me based on all our chats — make it catchy!

    Fazit der Konversation: ChatGPT will mir ein T-Shirt mit einem Prompt drucken lassen.

    ChatGPT wird kreativ

    PS:

    Alle offiziellen Rollout Informationen gibt es hier bei OpenAI selbst.

    PPS:

    Offenbar ist der Rollout in der EU, Schweiz und Lichtenstein etc. offiziell noch nicht verfügbar.

  • XMAS Projekt mit OpenAI Whisper

    XMAS Projekt mit OpenAI Whisper

    Ein Song mit Gänsehaut Momenten für die Adventszeit. Luciano Pavarotti mit Skin von Skunk Anansie im Jahr 2000 bei Pavarotti & Friends for Cambodia and Tibet.

    Seit Jahren ärgere ich mich, dass der Songtext auf dem Internet nicht zu finden ist – zumindest nicht mit den italienischen Abschnitten von Pavarotti. Perfekt geeignet für ein kleines Life-Long-Learning Weihnachtsprojekt.

    In diesen modernen Zeiten könnte man:

    a) einen Italiener fragen
    b) ChatGPT fragen (was es nur über API kann)
    c) einen der zahlreichen Transkriptionsdienste verwenden
    d) Eine Python Umgebung auf Google Colab Notebook aufsetzen, das OpenAI Whisper Model von Github laden, das Youtube Video File transkribieren und übersetzen lassen und mit ChatGPT am Format etwas schleifen.


    Der First take, ohne Feintuning ist schon sehr gut gelungen. Noch nicht ganz perfekt. Vielleicht gibt es noch einen Versuch mit einer qualitativ besseren Audioversion.

    Merry XMAS to all the nerds and rockers out there! 🎅🎄

    PS:
    Das war eigentlich mein Weihnachtsprojekt. War aber nach 90 Minuten schon erledigt. Jetzt suche ich noch ein anderes Projekt.




    Video auf Youtube:

  • GPT4All: Der persönliche KI-Assistent auf dem lokalen Rechner

    GPT4All: Der persönliche KI-Assistent auf dem lokalen Rechner

    GPT4All ist eine innovative Open-Source-Plattform, die es ermöglicht, leistungsstarke Sprachmodelle (LLMs) direkt auf dem eigenen Computer auszuführen. Das

    Diese datenschutzfreundliche Alternative zu Cloud-basierten Diensten bietet Flexibilität und Privatsphäre bei der Nutzung von KI-Technologien.

    Hauptmerkmale

    • Lokale Ausführung: GPT4All läuft vollständig auf dem Gerät, ohne Daten an externe Server zu senden.
    • Eigene Dokumenten Bibliotheken:
    • Vielseitige Modellauswahl: Es stehen zahlreiche öffentlilch KI-Modelle zur Verfügung, oder auch die Integration von ChatGPT APIs
    • Benutzerfreundliche Oberfläche: Eine intuitive Desktop-Anwendungen für Windows, Mac ermöglichen eine einfache Installation und intutitive Interaktion mit den KI-Modellen
    • Python SDK: Für Entwickler steht ein Python SDK zur Integration in eigene Projekte bereit.

    Kurzanleitung zur Installation

    Desktop-Anwendung

    1. Die offizielle GPT4All-Website besuchen.
    2. Den Installer für das jeweilige Betriebssystem herunterladen (Windows, macOS oder Linux).
    3. Den Installer ausführen und den Anweisungen auf dem Bildschirm folgen.
    4. Die GPT4All-Anwendung nach der Installation starten.
    5. Ein KI-Modell auswählen und herunterladen. Dabei sind die Systemanforderungen, insbesondere der benötigte RAM, zu beachten.

    Auswahl verschiedener LLMS

    GPT4All bietet Zugriff auf mehrere verschiedene Sprachmodelle. Die genaue Anzahl der verfügbaren Modelle kann variieren, da regelmässig neue Modelle hinzugefügt werden. Allerdings lassen sich einige Kernpunkte zu den Modellen bei GPT4All festhalten:

    1. Es stehen verschiedene Modellarchitekturen zur Verfügung, darunter Varianten basierend auf GPT-J, LLaMA und MPT.
    2. Das GPT4All-J Modell wird als eines der leistungsfähigsten beschrieben und soll qualitativ mit GPT-3.5, Claude 2 oder Google Gemini vergleichbar sein.
    3. Die Grösse der Modelle variiert typischerweise zwischen 3 und 10 GB.
    4. Nutzer können zwischen verschiedenen Modellen wählen, die für unterschiedliche Hardwareanforderungen und Anwendungsfälle optimiert sind.
    5. Neue Modelle werden regelmässig dem Ökosystem hinzugefügt, wodurch sich die Auswahl stetig erweitert.
    6. Die Modelle können direkt über die Desktop-Anwendung oder das Python SDK angesprochen und verwendet werden.

    Es ist wichtig zu beachten, dass die genaue Anzahl und Auswahl der Modelle sich im Laufe der Zeit ändern kann, da GPT4All ein aktiv entwickeltes Open-Source-Projekt ist. Für die aktuellste Liste verfügbarer Modelle empfiehlt es sich, die offizielle GPT4All-Dokumentation oder das GitHub-Repository zu konsultieren.

    Verwendung von Local Docs

    Local Docs ist eine Funktion in GPT4All, die es ermöglicht, auf lokale Dateien und Dokumente zuzugreifen und mit ihnen zu chatten. Hier sind die wichtigsten Punkte zur Verwendung von Local Docs:

    1. Installation: Vor der Nutzung muss das „LocalDocs text embeddings model“ namens SBert installiert werden.
    2. Dokumente hinzufügen: Über das Menü können ein oder mehrere Ordner mit Text- oder PDF-Dateien von der eigenen Festplatte ausgewählt werden.
    3. Aktivierung: Vor einem Chat müssen die zu verwendenden Dokumente über den Dialog „Lokale Dokumente“ aktiviert werden.
    4. Modellauswahl: Für Local Docs können alle installierten Sprachmodelle verwendet werden.
    5. Interaktion: Man kann der KI Fragen zu den Dokumenten stellen, um Zusammenfassungen bitten oder Erklärungen anfordern.
    6. Antworten: Die KI durchsucht die ausgewählten Dokumente und liefert Antworten basierend auf deren Inhalt. Dabei wird die Quelle der Information angegeben.
    7. Datenschutz: Da alles lokal verarbeitet wird, bleiben die Daten auf dem eigenen Rechner und werden nicht an externe Server gesendet.
    8. Flexibilität: Es ist möglich, zwischen verschiedenen Dokumentensammlungen zu wechseln, je nach Chatthema oder Bedarf.

    Die Verwendung von Local Docs ermöglicht es, gezielt auf eigene Informationen zuzugreifen und diese mit KI-Unterstützung zu analysieren, ohne dabei den Datenschutz zu gefährden.

  • AI Collection

    AI Collection

    In this blog post, we’re excited to share our handpicked selection of AI resources, thoughtfully organized to cater to a wide range of interests and expertise levels. From cutting-edge research papers and educational platforms to practical tools and community forums, the collection is tailored to guide you through the complexities of AI, no matter where you are on your learning journey.

    Whether you’re aiming to grasp the fundamental principles of machine learning, explore the latest in neural networks, or implement AI in your next project, our categorized guide promises to be your compass in the ever-evolving landscape of artificial intelligence. Join us as we delve into this treasure trove of AI knowledge, designed to empower, educate, and inspire.

    THE BACKLOG

    Prompt Engineering

    Introduction

    Sources

    https://learnprompting.org/docs/intro

    https://www.datacamp.com/blog/what-is-prompt-engineering-the-future-of-ai-communication

    AI Tools

    FlowGPT: Join a vibrant community sharing a diverse library of ChatGPT prompts, with personalized recommendations.

    → flowgpt.com


    PromptVine: A treasure trove of ChatGPT prompts, categorized for ease of use, perfect for various professions and scenarios.

    → https://contentatscale.ai/ai-prompt-library/


    Great AI Prompts: Dive into a diverse collection of GPT and image prompts suitable for a range of applications.

    → greataiprompts.com


    Chatgpt Prompt Extension: Enhance your ChatGPT experience with this Chrome extension, offering a vast array of prompts.

    → chrome.google.com

    Awesome GPT Prompts: Explore this curated collection of ChatGPT prompts sourced from various platforms.

    → awesomegptprompts.com


    Writesonic: Discover over 215 ChatGPT prompts for marketing, SEO, and more, along with a guide to prompt writing.

    → writesonic.com


    Chatx AI: A comprehensive prompt marketplace for ChatGPT, DALL·E, and other AI tools, enhancing your AI interactions.

    → chatx.ai


    Promptbase: Find quality AI prompts for ChatGPT, tailored for conversational applications, support, and content creation.

    → promptbase.com


    Promptmagic: Supercharge your next project with a curated list of ChatGPT prompts for content marketing, SEO, and more.

    → promptmagic.co


    Prompt Manager Extension: Manage your ChatGPT prompts efficiently with this Chrome extension, offering template saving and editing.

    → chrome.google.com


    Prompt AI: Access a variety of chat-based services and expert chat specialists for fast, personalized responses.

    → prompti.ai


    Free Courses

    1. Introduction to Generative AI

    • Introductory microlearning course.
    • Explains Generative AI, its applications, and differences from traditional ML.

    https://lnkd.in/gDZUJWeC

    2. Responsible AI: Applying AI Principles with Google Cloud

    • Operationalizing responsible AI.
    • Focus on Google Cloud’s approach and best practices.

    https://lnkd.in/gtD4naB9

    3. Google: AI for Anyone

    • Basics of AI.
    • No prior knowledge in CS, mathematics, AI, or programming required.

    https://lnkd.in/g4AnEATJ

    4. Introduction to Responsible AI

    • Responsible AI principles and Google’s implementation.
    • Covers Google’s 7 AI principles.

    https://lnkd.in/g35Egxfy

    5. Introduction to Large Language Models

    • Focus on Large Language Models (LLM).
    • Covers use cases and prompt tuning for LLM performance.

    https://lnkd.in/g98EsHW5

    6. Generative AI for Developers Learning Path

    • Technical focus for App Developers, ML Engineers, Data Scientists.
    • Prerequisite: Introduction to Generative AI.
    • Course Link: https://lnkd.in/gbqek3X6

    7. Introduction to Image Generation

    • About diffusion models for image generation.
    • Training and deploying on Vertex AI.
    • Course Link: https://lnkd.in/gnXix-nZ