24.08.2010, 19:55
Nunja, gerade bei dem Thema "Automatisierte Entscheidungsprozesse" und deren Integration, bewaffnete Robotersystem die vollständig autonom eine Situation nach einer Reihe von vorgegebenden Parametern beurteilen, bin ich vollkommen auf der Seite von shahab3. Es ist zur Zeit nicht möglich alle Entschiedungswege auf der Grundlage von Kausalitätsketten abzubilden.
Entweder ist die zur Zeit zur Verfügung stehende Rechnenleistung zu gering, oder die abstrahierten Situationen treten nicht ein, bzw. in veränderter Form.
Schliesslich ist gerade ein militärischer Einsatz keine Abfolge von Aktion oder Reaktion.
Das heisst nicht das ein Mensch das gleiche Problem hat, schliesslich treffen auch Menschen Entscheidungen auf der Basis von Vermutungen, Annahmen (unserem Bauchgefühl), diese Entscheidung kann zu einem gewissen Zeitpunkt vielleicht subjekt richtig sein, nach der Abwägung aller zu dem Zeitpunkt vorliegenden Informationen, der persönlichen Einstellungen, das zu erreichende Ziel vollkommen falsch.
Ich kann mich schwer mit dem Gedanken anfreunden, das aufgrund eines Fehlers innerhalb des Programmablaufes tausende Zivilisten umgebracht werden.
Ein Mensch kann bestraft werden und eine bestimmte Moral anerzogen werden, eine Maschiene arbeitet nur Programmaufrufe ab.
Und das Computerprogramme voller Fehler sind und sich quasi immer im Status der Optimierung befinden ist kein Geheimnis, sondern eine Tatsache.
Entweder ist die zur Zeit zur Verfügung stehende Rechnenleistung zu gering, oder die abstrahierten Situationen treten nicht ein, bzw. in veränderter Form.
Schliesslich ist gerade ein militärischer Einsatz keine Abfolge von Aktion oder Reaktion.
Das heisst nicht das ein Mensch das gleiche Problem hat, schliesslich treffen auch Menschen Entscheidungen auf der Basis von Vermutungen, Annahmen (unserem Bauchgefühl), diese Entscheidung kann zu einem gewissen Zeitpunkt vielleicht subjekt richtig sein, nach der Abwägung aller zu dem Zeitpunkt vorliegenden Informationen, der persönlichen Einstellungen, das zu erreichende Ziel vollkommen falsch.
Ich kann mich schwer mit dem Gedanken anfreunden, das aufgrund eines Fehlers innerhalb des Programmablaufes tausende Zivilisten umgebracht werden.
Ein Mensch kann bestraft werden und eine bestimmte Moral anerzogen werden, eine Maschiene arbeitet nur Programmaufrufe ab.
Und das Computerprogramme voller Fehler sind und sich quasi immer im Status der Optimierung befinden ist kein Geheimnis, sondern eine Tatsache.