Ich denke, das diejenigen, die dies sagen (Entscheidungen durch Maschinen), auf andere Arten von Entscheidungen Bezug nehmen als das, was du gesagt hast. Ich denke nicht, dass irgendjemand (TVP, TZM oder andere) denkt, dass ein Algorithmus entscheiden sollte, wie das Bildungssystem aussehen soll, wie man andere Menschen oder Tiere behandeln soll und so weiter. Man kann Algorithmen entwickeln, um Antworten auf diese Fragen vorzuschlagen, aber es liegt an den Menschen, um über solche Dinge zu entscheiden. Denk an eine Behandlung von Krebs: Schon heute werden KI's verwendet, um Entscheidungen in Bezug auf die Behandlung von Krebs zu treffen, und das sind Entscheidungen über Leben und Tod. Aber diese KI's werden nicht entscheiden oder jemandem eine Behandlung aufzwingen. Sie werden auch von Ärzten programmiert, um vielleicht die gesunde Lebensdauer des Patienten zu erhöhen, nicht nur das Überleben. So ist die KI menschlich gewürzt (je wissenschaftlicher die Menschen gewürzt sind, desto intelligenter ist die KI). Dann können dem Patienten die Alternativen gezeigt werden: X-Behandlung hat eine längere Überlebensrate, hat aber Nebenwirkungen, während Y-Behandlung eine geringere Überlebensrate hat, doch die Nebenwirkungen sind nicht so schlimm. Dann entscheidet der Patient, welcher Behandlung er sich unterziehen möchte. Die Beziehung zwischen Computern und Menschen ist also komplex und hängt von der Domäne ab.
Zum Beispiel kann eine Software getestet werden, um zu sehen, ob sie sicherer ein Auto fahren kann als ein Mensch, und wenn ja, dann wird die Software genommen, um Autos (selbstfahrende Autos) zu fahren anstelle von Menschen.
So können Computer programmiert werden, um bessere Bildungssysteme zu finden, oder sogar so, wie man Tiere so behandelt, dass sie nicht leiden, aber das sind alles Vorschläge, die von einer Software kommen, die von menschlichen Köpfen entwickelt wurde, und nur eine wissenschaftlich orientierte Gesellschaft kann das Beste aus diesen Vorschlägen machen. Aber es hängt von Situation zu Situation ab.