· 

Warum ein Algorithmus kein Taktgefühl hat

Frau Zweig, alle Welt redet vom Algorithmus. Was ist das eigentlich?

 

KATHARINA ZWEIG: Ein Algorithmus ist nichts Geheimnisvolles. Es ist einfach nur eine Reihe von Handlungsanweisungen, die garantiert die Lösung zu einem klar definierten Problem berechnen. Zum Beispiel ist die schriftliche Multiplikation ein "Algorithmus", der für zwei beliebige Zahlen angibt, was man machen muss, um das Produkt zu berechnen.

 

Gibt es ohne den Algorithmus keine künstliche Intelligenz?

 

ZWEIG: Die sogenannte künstliche Intelligenz ist natürlich gar keine Intelligenz. Es handelt sich nicht um ein Wesen, das in irgendeiner Form handelt oder für sich selbst Entscheidungen trifft. Als künstliche Intelligenz wird jede Form von Software bezeichnet, die Arbeiten übernimmt, die von einem Menschen eine gewisse Intelligenz erfordern würden – dazu gehört im engeren Sinne dann sogar der Taschenrechner. Das, was wir heute unter dem Begriff diskutieren, sind im Wesentlichen Verfahren des maschinellen Lernens. 

 

Wie kann ein Computer denn lernen? 

 

ZWEIG: Wir haben uns diese Verfahren von unseren Kindern abgeguckt. Die lernen zum Beispiel den Unterschied zwischen einem Stuhl und einem Sessel, indem wir ihnen jeweils einige davon zeigen. Kinder lernen dann die Haupteigenschaften, die das eine von dem anderen unterscheidet: Stühle sind oft aus Holz und an der Lehne selten mit Stoff bezogen. Sessel sind viel voluminöser und oft vollständig mit Stoff oder Leder bezogen. Man sieht aber schon, dass es keine eindeutigen Regeln gibt, die alle Stühle und alle Sessel betreffen. 

 

Und so ist es auch, wenn Maschinen lernen? 

 

ZWEIG: Ja, genau. Die Maschinen bekommen von uns viele Daten, die wir einer von mehreren Kategorien zuordnen, z.B. "Guter Bewerber" und "Schlechter Bewerber". Darin suchen Computer dann mit statistischen Methoden nach Auffälligkeiten, die sehr oft bei der einen und sehr selten bei der anderen Kategorie auftauchen. 

 

Trifft ein Computer, der auf solchen Daten lernt, bessere Entscheidungen als der Mensch?

 

ZWEIG: Das kann man ohne weitere Untersuchungen nicht sagen – wie gut oder schlecht hat der Mensch denn überhaupt vorher entschieden? Diese Information fehlt sehr oft und dann kann man schwer sagen, ob die Maschine besser ist. Bei der Bilderkennung ist es allerdings schon so weit, dass die Maschine besser ist.  Wenn es um Entscheidungen über Menschen geht, bin ich bisher nicht besonders beeindruckt. Hier werden oft sehr schlechte Entscheidungen getroffen.   

 

Künstliche Intelligenz kann in vielen Produktionsprozessen eingesetzt werden und damit zum "Jobkiller" werden. Wie schätzen Sie die Situation hier ein? 

 

ZWEIG: Diese Angst begleitet die Menschen schon seit mindestens 1970. Schon damals wurden Bücher veröffentlicht mit Titeln wie "Was der Computer NICHT kann", in denen es um die Frage ging, was für den Menschen an Arbeit "übrig bleibt". Wenn wir jetzt zurückblicken, dann wurde natürlich in den letzten Jahrzehnten sehr vieles digitalisiert und automatisiert. Dieser Trend wird sich mit den Verfahren des maschinellen Lernens jetzt auch außerhalb von Produktionsprozessen fortsetzen. Auf der anderen Seite werden auch neue Jobs entstehen. Die Frage ist also eher, ob es sehr abrupt Automatisierungen geben wird, die plötzlich Zehntausende arbeitslos machen könnte, wie zum Beispiel im Zustellerservice. Solche abrupten Wechsel sind durch Weiterbildungen und andere Maßnahmen schwer aufzufangen.  

 

Kann man die KI zähmen beziehungsweise unter Kontrolle halten? Welche Gefahren birgt diese?

 

ZWEIG: In meinem Buch "Ein Algorithm hat kein Taktgefühl" unterscheide ich erstmal zwischen solchen KI-Systemen, die Menschen betreffen, und solche, die das nicht tun. Die Regulierungsfrage bezieht sich ja auf verschiedene Aspekte: Ein Robotiksystem muss zum Beispiel immer sicher sein, es darf Menschen nicht verletzen. Eine solche Produktsicherheit muss heute schon gewährleistet sein und das gilt natürlich auch für Systeme, bei denen die Entscheidungsregeln gelernt wurden. Aber Regulierungsmaßnahmen, die die Frage nach der Entscheidungslogik betreffen, brauchen wir im Wesentlichen nur dann, wenn es auch um Menschen geht. Es geht hier also darum, dass differenziert reguliert wird. Zudem können Normungen und auch freiwillige Angaben zu KI-Systemen genutzt werden, um das Vertrauen in KI-Systeme zu erhöhen. 

 

Wo könnte uns die künstliche Intelligenz noch hinführen?

 

ZWEIG: Insgesamt fehlen mir  die KI-Systeme, die Barrieren abbauen und mehr Menschen teilhaben lassen, also solche, die das Gemeinwohl erhöhen: Der autonome Rollstuhl, zum Beispiel. Und  das sich anpassende Mathebuch, das Kindern mit anderer Muttersprache oder Legasthenie hilft, im Unterricht zu folgen, oder der sprechende Blindenstock, der einen sprachlichen Umgebungsblick erzeugt. Ich glaube, dass wir hier mehr Förderung brauchen, damit solche Produktideen entstehen und umgesetzt werden, auch wenn der Markt erstmal weniger groß ist. Global gesehen sind ja auch diese Märkte durchaus groß genug. mei

 

Buchhinweis: Katharina Zweig, Ein Algrorithmus hat kein Taktgefühl, Wo künstliche Intelligenz sich irrt, warum uns das betrifft und was wir dagegen tun können, Wilhelm Heyne Verlag München - Verlagsgruppe Random House, München 2019, 318 Seiten, 20 Euro

 

Zur Person: Katharina Zweig (Jahrgang 1976/Hamburg) ist Informatikprofessorin an der TU Kaiserslautern und dort den deutschlandweit einmaligen Studiengang "Sozioinformatik" ins Leben gerufen hat. Außerdem ist sie Gründerin eines KI-Beratungs-Startups. Sie arbeitet darüber hinaus für verschiedene Bundesministerien und Mitglied der Enquete-Kommission des Bundestages zum Thema "Künstliche Intelligenz". mei

 

English version

 

An interview with the AI expert, Professor Katharina Zweig, about an algorithm that has no sense of tact and about artificial intelligence in which an error cannot be ruled out.

 

Mrs. Zweig, everyone is talking about an algorithm. What is this actually?

 

KATHARINA ZWEIG: An algorithm is nothing mysterious. It's just a series of instructions that guarantee to calculate the solution to a clearly defined problem. For example, written multiplication is an "algorithm" that specifies for any two numbers what you have to do to calculate the product.

 

Is there no artificial intelligence without the algorithm?

 

TWO: The so-called artificial intelligence is of course no intelligence at all. It is not a being that acts in any way or makes decisions for itself. Artificial intelligence is defined as any form of software that does work that would require a certain amount of intelligence from a human being - in the narrower sense, this even includes the calculator. What we are discussing today under the term are essentially methods of machine learning. 

 

How can a computer learn? 

 

ZWEIG: We copied these methods from our children. For example, they learn the difference between a chair and an armchair by showing them some of them. Children then learn the main characteristics that distinguish one from the other: chairs are often made of wood and the backrest is seldom covered with fabric. Armchairs are much more voluminous and often completely covered with fabric or leather. You can see, however, that there are no clear rules that apply to all chairs and armchairs. 

 

And so it is when machines learn? 

 

ZWEIG: Yes, exactly. The machines receive a lot of data from us, which we assign to one of several categories, e.g. "Good applicant" and "Bad applicant". Computers then use statistical methods to search for anomalies that very often occur in one category and very rarely in the other. 

 

Does a computer that learns on such data make better decisions than humans?

 

ZWEIG: You can't say that without further research - how good or bad did a person decide beforehand? This information is often missing and then it is difficult to say whether the machine is better. With image recognition, however, the machine is already better.  When it comes to decisions about people, I'm not particularly impressed so far. Very bad decisions are often made here.   

 

Artificial intelligence can be used in many production processes and thus become a "job killer". How do you assess the situation here? 

 

ZWEIG: This fear has accompanied people since at least 1970. Even then, books were published with titles such as "Was der Computer NICHT kann" (What the computer can't do), which dealt with the question of what "remains" of work for people. If we now look back, then of course a great deal has been digitized and automated in recent decades. This trend will now continue with the methods of machine learning outside of production processes. On the other hand, new jobs will also be created. So the question is rather whether there will be very abrupt automations that could suddenly make tens of thousands unemployed, such as in the delivery service. Such abrupt changes are difficult to absorb through further training and other measures.  

 

Can the AI be tamed or kept under control? What dangers does this pose?

 

ZWEIG: In my book "Ein Algorithm hat kein Taktgefühl" ("An algorithm has no sense of tact") I first distinguish between AI systems that affect people and those that do not. The regulatory question relates to various aspects: For example, a robotic system must always be safe, it must not injure people. Such product safety must already be guaranteed today, and of course this also applies to systems in which the decision-making rules have been learned. But regulatory measures relating to decision-making logic are essentially only needed when it comes to people. What is at issue here, then, is differentiated regulation. In addition, standards and voluntary information on AI systems can be used to increase confidence in AI systems. 

 

Where else could artificial intelligence lead us?

 

ZWEIG: Overall, I lack the AI systems that break down barriers and allow more people to participate, i.e. those that increase the common good: The autonomous wheelchair, for example. And the adaptable math book, which helps children with a different mother tongue or dyslexia to follow in class, or the talking cane, which creates a linguistic view of the surroundings. I believe that we need more support here so that such product ideas can emerge and be implemented, even if the market is less large for the time being. From a global perspective, these markets are also large enough. mei

 

Book reference: Katharina Zweig, Ein Algrorithmus hat kein Taktgefühl, Where artificial intelligence is wrong, why this concerns us and what we can do about it, Wilhelm Heyne Verlag München - Verlagsgruppe Random House, Munich 2019, 318 pages, 20 Euro

 

About the person: Katharina Zweig (born 1976/Hamburg) is a professor of computer science at the TU Kaiserslautern, where she founded the unique study course "Socioinformatics". She is also the founder of an AI consulting start-up. She also works for various federal ministries and is a member of the Bundestag's Enquete Commission on Artificial Intelligence. mei

Kommentar schreiben

Kommentare: 0