KI werden immer krassere Fähigkeiten angedichtet – von Techkonzernen und der Wissenschaft. Ein genauer Blick zeigt: Von der Superintelligenz sind wir noch weit entfernt.
One of the use cases I thought was reasonable to expect from ChatGPT and Friends (LLMs) was summarising. It turns out I was wrong. What ChatGPT isn't summarising at all, it only looks like it. What it does is something else and that something else only becomes summarising in very specific circumstances.
The European Commission has moved to "compel" Microsoft to provide information about generative artificial intelligence (AI) risks on its Bing search engine, threatening it with a fine, according to a statement on Friday (17 May).
GPT-4 ist da und steckt seit letzter Woche auch in ChatGPT. Ein Test einer US-Organisation zeigt, dass die KI im Vergleich zum Vorgänger offenbar anfälliger für Falschinformationen ist.
Die Bürgerrechtsorganisation Noyb hat wegen Datenschutzbedenken eine Beschwerde gegen OpenAI eingelegt und fordert eine DSGVO-konforme Datenverarbeitung.
I find that one of the most frustrating kinds of AI hype is when people who are actually in a position to use their own expertise to push back instead give in to the FOMO and do the hype for tech companies. Today's case in point is a recent article in The Chronicle of Higher Education...
This essay is based in part on presentations given in the Spring and Summer of 2018 at the Creative AI Meetup at the Photographer’s Gallery in London, the University of Chicago’s Franke Institute for the Humanities, the Aarhus Institute of Advanced Studies in Denmark, INRS in Quebec, and the University of Warwick Centre for Interdisciplinary Methodologies Research Forum. It is the second part of a longer discussion about deep learning, the first part of which is in the essay, “Deep Learning as an Epistemic Ensemble”.
The prolific use of Artificial Intelligence Large Language Models (LLMs) present new challenges we must address and new questions we must answer. For instance, what do we do when AI is wrong?
Deutsche beschäftigen sich nur oberflächlich und undifferenziert mit Künstlicher Intelligenz, hat eine aktuelle Studie von Jan Schoenmakers Datenanalysefirma Hase & Igel ergeben. Gleichzeitig macht die Wirtschaft sich hierzulande immer abhängiger von Technologien aus dem Ausland, die es weder beherrscht noch versteht. Fatal, findet Schoenmakers.
Die Debatte um Künstliche Intelligenz und ChatGPT führt dramatisch in die Irre. In seiner Ringvorlesung für die Universität Erfurt fächert der Autor zehn Gefahren aktuell gehypter KI-Systeme auf und argumentiert: Nicht etwa intelligente Maschinen sind das Problem, sondern der menschliche Blick auf Technologie.