Dose
gehört zum Inventar
Ich war immer der Überzeugung, dass es technisch ausgeschlossen ist, dass sich ein Computer verrechnen kann und entsprechend Fehler produziert wie ein Mensch. Wenn von "Computerfehlern" die Rede ist, ist es für mich immer die Ausrede für "Fehler 40" (der, der ca. 40cm vor dem Bildschirm sitzt) oder für schlecht programmierte Software oder eben der PC bekommt fehlerhafte Daten zur Berechnung.
In der Mathematik gibt es immer nur ein richtiges Ergebnis ohne Wenn und Aber und das macht ein Computer, egal ob Taschenrechner oder High End Gerät: Er rechnet mit Einsen und Nullen. Nach meiner Logik sind Rechenfehler hier ausgeschlossen.
Heute hat mir unser Firmen ITler erklärt, dass es zwar höchst selten vorkomme, aber durchaus passiert, dass Computer sich bei korrekten Vorgaben verrechnen, z.B. ich lasse meinen PC ganz simpel multiplizieren oder Primzahlen ausrechnen und er spuckt mir ein falsches Ergebnis aus. Wie das sein kann konnte er mir nicht erklären und ich kann es mir nicht vorstellen wie es möglich sein soll, dass ein PC einfache Rechenfehler macht.
Beispiel: Ich lasse den PC 5+5 ausrechnen. Meiner Meinung nach kann er immer nur 10 als Ergebnis ausgeben. Dem ITler zufolge wäre aber auch 9 (oder was auch immer) möglich und der PC könnte es als logisch und richtig ausgeben. Das Szenario bei 100 Versuchen: 99 mal gibt der PC korrekt 10 aus, einmal 9.
Ich meinte dann zu ihm: Wenn der PC bei 100 Versuchen 5+5 einmal 9 ausgibt und 99x 10, dann hast du dich bei der 9 vertippt und statt 5+5 wohl 5+4 getippt (dich vertippt) weil solche Fehler immer in menschlichem Versagen begründet sind. Jedenfalls sind wir da nicht zusammengekommen.
Wie erklärt ihr euch das und was entspricht der Wahrheit?
In der Mathematik gibt es immer nur ein richtiges Ergebnis ohne Wenn und Aber und das macht ein Computer, egal ob Taschenrechner oder High End Gerät: Er rechnet mit Einsen und Nullen. Nach meiner Logik sind Rechenfehler hier ausgeschlossen.
Heute hat mir unser Firmen ITler erklärt, dass es zwar höchst selten vorkomme, aber durchaus passiert, dass Computer sich bei korrekten Vorgaben verrechnen, z.B. ich lasse meinen PC ganz simpel multiplizieren oder Primzahlen ausrechnen und er spuckt mir ein falsches Ergebnis aus. Wie das sein kann konnte er mir nicht erklären und ich kann es mir nicht vorstellen wie es möglich sein soll, dass ein PC einfache Rechenfehler macht.
Beispiel: Ich lasse den PC 5+5 ausrechnen. Meiner Meinung nach kann er immer nur 10 als Ergebnis ausgeben. Dem ITler zufolge wäre aber auch 9 (oder was auch immer) möglich und der PC könnte es als logisch und richtig ausgeben. Das Szenario bei 100 Versuchen: 99 mal gibt der PC korrekt 10 aus, einmal 9.
Ich meinte dann zu ihm: Wenn der PC bei 100 Versuchen 5+5 einmal 9 ausgibt und 99x 10, dann hast du dich bei der 9 vertippt und statt 5+5 wohl 5+4 getippt (dich vertippt) weil solche Fehler immer in menschlichem Versagen begründet sind. Jedenfalls sind wir da nicht zusammengekommen.
Wie erklärt ihr euch das und was entspricht der Wahrheit?
Zuletzt bearbeitet: