Uff. Ich stimme dir in ja in der Regel zu, nicht aber in diesem Fall.
> Man hört so schlaue Formulierungen wie jene, dass man in Zukunft nicht nur darüber diskutieren müsse, was ein Computer tun kann, sondern auch, was ein Computer tun sollte. Damit spricht man Bedenken, Vorbehalte und echte Ängste an, die Menschen im Bezug auf KI haben.
Und das ist in meinen Augen auch richtig so. Es ist absolut notwendig, im Bereich der IT über Ethik zu sprechen, dies ist etwas, was den Silicon-Valley-Firmen fehlt. Ist es ethisch korrekt, Menschen basierend auf ihren Suchverläufen, Werbung zu präsentieren, die Vorbehalte schürt (Fake-News, etc.). Ist es ethisch korrekt, beispielsweise als Hosting-Service, Webseiten wie gab.ai oder Waffenhändler zu hosten? Natürlich nicht.
> Sind beispielsweise Kampfroboter unethisch? Natürlich nicht, denn wir setzen sie ja nur gegen die Bösen ein.
Ich bin mir absolut nicht sicher, ob das pure Ironie ist. Falls ja, ignoriere man den folgenden Absatz. Falls nein: Natürlich sind Kampfroboter absolut unethisch. Man stelle sich vor, dass Deutschland Kampfroboter in den nahen Osten exportiert, damit sie dort dann irgendwann den Terroristen in die Hände fallen.
> Sollte man aus ethischen Gründen auf eine KI verzichten, die dem Menschen überlegen ist und die in der Lage wäre, ein Problem zu lösen, das der Mensch nicht lösen kann?
Ja. Was wäre denn ein solches Problem? Nehmen wir beispielsweise den Klimawandel. Die KI findet es ne ganz tolle Idee, doch einfach Landstriche plattzumachen. Nun leben da aber Menschen? Egal, hauptsache das Klima ist gerettet, was stören mich da die Menschen? Sorry, aber nein danke. Das wäre absolut unethisch und nicht vertretbar.
Aber bevor das hier ausartet, eine Linkempfehlung:
https://tante.cc/2018/05/14/the-software-code-of-ethics/