One of the use cases I thought was reasonable to expect from ChatGPT and Friends (LLMs) was summarising. It turns out I was wrong. What ChatGPT isn't summarising at all, it only looks like it. What it does is something else and that something else only becomes summarising in very specific circumstances.
The European Commission has moved to "compel" Microsoft to provide information about generative artificial intelligence (AI) risks on its Bing search engine, threatening it with a fine, according to a statement on Friday (17 May).
GPT-4 ist da und steckt seit letzter Woche auch in ChatGPT. Ein Test einer US-Organisation zeigt, dass die KI im Vergleich zum Vorgänger offenbar anfälliger für Falschinformationen ist.
Die Bürgerrechtsorganisation Noyb hat wegen Datenschutzbedenken eine Beschwerde gegen OpenAI eingelegt und fordert eine DSGVO-konforme Datenverarbeitung.
I find that one of the most frustrating kinds of AI hype is when people who are actually in a position to use their own expertise to push back instead give in to the FOMO and do the hype for tech companies. Today's case in point is a recent article in The Chronicle of Higher Education...
This essay is based in part on presentations given in the Spring and Summer of 2018 at the Creative AI Meetup at the Photographer’s Gallery in London, the University of Chicago’s Franke Institute for the Humanities, the Aarhus Institute of Advanced Studies in Denmark, INRS in Quebec, and the University of Warwick Centre for Interdisciplinary Methodologies Research Forum. It is the second part of a longer discussion about deep learning, the first part of which is in the essay, “Deep Learning as an Epistemic Ensemble”.
The prolific use of Artificial Intelligence Large Language Models (LLMs) present new challenges we must address and new questions we must answer. For instance, what do we do when AI is wrong?
Deutsche beschäftigen sich nur oberflächlich und undifferenziert mit Künstlicher Intelligenz, hat eine aktuelle Studie von Jan Schoenmakers Datenanalysefirma Hase & Igel ergeben. Gleichzeitig macht die Wirtschaft sich hierzulande immer abhängiger von Technologien aus dem Ausland, die es weder beherrscht noch versteht. Fatal, findet Schoenmakers.
Die Debatte um Künstliche Intelligenz und ChatGPT führt dramatisch in die Irre. In seiner Ringvorlesung für die Universität Erfurt fächert der Autor zehn Gefahren aktuell gehypter KI-Systeme auf und argumentiert: Nicht etwa intelligente Maschinen sind das Problem, sondern der menschliche Blick auf Technologie.
„Künstliche Intelligenz“ verändert alles und könnte uns vernichten – diese Erzählung zieht gerade Teile der Öffentlichkeit in ihren Bann. Aber der aktuelle KI-Hype ist eine inszenierte Täuschung, die vor allem Geld bringen soll. Ein Kommentar.
I've been asked, in various roles1, to give my opinion on the challenges posed by Large Language Models (LLMs)2, also known as "stochastic parrots" (Bender, Gebru, McMillan-Major, & Shmitchell, 2021), for assessing academic writing assignments. A concern seems to be that students legitimately can use these systems and that then we would be unable to…
Beim Umgang mit KI geht es nicht nur um technisches Verständnis, sondern vor allem um den Einfluss der Technologie auf unser Zusammenleben. Ein Gespräch über Ansätze in der außerschulischen Bildung.