Umfrage: Wie KI den nächsten großen konventionellen Krieg dominieren?
Du hast keine Berechtigung bei dieser Umfrage abzustimmen.
Nein, die realen Vorteile sind zu gering
80.00%
4 80.00%
Ja, die KI wird der dominierende Faktor sein
20.00%
1 20.00%
Gesamt 5 Stimme(n) 100%
∗ Du hast diese Antwort gewählt. [Zeige Ergebnisse]

Künstliche Intelligenz
#1
Hab mit der Suchfunktion keinen Strang dazu gefunden. Mach ich also mal einen auf.

Meiner rein persönlichen Meinung nach muss Künstliche Intelligenz gar nicht so intelligent sein um im Krieg immense Vorteile zu erbringen und die Nation welche diese Technologie als erste so skrupellos und weitgehend wie möglich einsetzen wird, wird meiner Meinung nach (zumindest vorübergehend) einen erheblichen militärischen Vorteil erlangen. Und da wir das vermutlich aus sozialkulturellen Gründen nicht sein werden:

https://www.janes.com/defence-news/news-...m_term=sce

Zitat:The European Parliament has set out its definitive position on the military uses of artificial intelligence (AI) in a newly adopted report. Noting that the technology can replace neither “human decision-making nor human contact”, it also insists on the need for an EU strategy to prohibit lethal autonomous weapon systems (LAWS).

könnten wir im nächsten größeren Krieg dadurch untergehen. So zumindest meine These.

Vor allem die Offensiven Möglichkeiten dieser Technologie müssen meiner rein persönlichen Ansicht nach so aggressiv wie möglich und mit Hochdruck exploriert werden.
Zitieren
#2
(23.01.2021, 21:35)Quintus Fabius schrieb: Hab mit der Suchfunktion keinen Strang dazu gefunden. Mach ich also mal einen auf.

Meiner rein persönlichen Meinung nach muss Künstliche Intelligenz gar nicht so intelligent sein um im Krieg immense Vorteile zu erbringen und die Nation welche diese Technologie als erste so skrupellos und weitgehend wie möglich einsetzen wird, wird meiner Meinung nach (zumindest vorübergehend) einen erheblichen militärischen Vorteil erlangen. Und da wir das vermutlich aus sozialkulturellen Gründen nicht sein werden:

https://www.janes.com/defence-news/news-...m_term=sce

Zitat:The European Parliament has set out its definitive position on the military uses of artificial intelligence (AI) in a newly adopted report. Noting that the technology can replace neither “human decision-making nor human contact”, it also insists on the need for an EU strategy to prohibit lethal autonomous weapon systems (LAWS).

könnten wir im nächsten größeren Krieg dadurch untergehen. So zumindest meine These.

Vor allem die Offensiven Möglichkeiten dieser Technologie müssen meiner rein persönlichen Ansicht nach so aggressiv wie möglich und mit Hochdruck exploriert werden.

Echte Intelligenz ist bisher noch nicht künstlich geschaffen wurden und vermutlich wird es auch noch sehr sehr lange dauern bis es in der Richtung einen Durchbruch geben könnte. Insofern kann ich sich nur um Fake KI handeln und diese dürfte relativ kurzfristig durchschaut sein.
Zitieren
#3
Die Frage, die sich aufdrängt, ist doch, wie ein zukünftiger Krieg geartet sein wird, in welchem KI zum Einsatz gelangen soll. Haben wir es mit einem "globalen Krieg" zwischen Groß- oder Weltmächten zu tun, so wird KI bzw. werden KI-bezogene Systeme sicherlich eine gewisse Rolle spielen, allerdings glaube ich nicht, dass dies entscheidend sein wird. Die Schwachstellen dürften immer noch die Verlinkung und die Energiesicherheit sowie die Störanfälligkeit sein. Auch dürfte die KI zumindest eine gewisse Rolle spielen in "stillen" Kalten Kriegen, wenn es darum geht den Gegner zu schädigen ohne großartige Spuren zu hinterlassen. (Man denke an Bot-Heere und z. B. Nordkoreas "Banküberfälle".)

Haben wir es allerdings mit einem unübersichtlichen, asymmetrischen und mit Söldnern und Milizen bestrittenen Krieg zu tun, so wie in der Ukraine, in Syrien oder in Mali und Libyen, so sehe ich kaum einen Einfluss der KI, sie wäre zu teuer und zu unnütz und könnte wohl auch von den meisten Protagonisten auch nicht richtig genutzt werden - mal überspitzt ausgedrückt.

Schneemann.
Zitieren
#4
https://warontherocks.com/2021/07/warbot...lly-naive/

Über die aktuellen Beschränkungen von KI im Krieg, die aber meiner Meinung nach in Bezug auf ihre Wirksamkeit falsch eingeschätzt werden. Man benötigt gar nicht so viel um viel erreichen zu können. Vergleichsweise dumme KIs könnten auch auf der strategischen Ebene durchaus der Durchbruch sein, oder ihre Beschränktheit kann sich sogar als Vorteil erweisen.
Zitieren
#5
Naja, da weiß ich, weswegen ich, der gerne mal durch die Wälder tigert und auch Pilze sammelt, zumindest in diesem Punkt mit Sicherheit keine KI zum Sammeln nutzen werde...
Zitat:Mushroom pickers urged to avoid foraging books on Amazon that appear to be written by AI

Sample of books scored 100% on AI detection test as experts warn they contain dangerous advice [...]

Amazon has become a marketplace for AI-produced tomes that are being passed off as having been written by humans, with travel books among the popular categories for fake work.

Now a number of books have appeared on the online retailer’s site offering guides to wild mushroom foraging that also seem to be written by chatbots. The titles include “Wild Mushroom Cookbook: form [sic] forest to gourmet plate, a complete guide to wild mushroom cookery” and “The Supreme Mushrooms Books Field Guide of the South-West”.

Four samples from the books were examined for the Guardian by Originality.ai, a US firm that detects AI content. The company said every sample had a rating of 100% on its AI detection score, meaning that its systems are highly confident that the books were written by a chatbot such as ChatGPT. [...] Leon Frey, a foraging guide and field mycologist at Cornwall-based Family Foraging Kitchen, which organises foraging field trips, said the samples he had seen contained serious flaws such as referring to “smell and taste” as an identifying feature. “This seems to encourage tasting as a method of identification. This should absolutely not be the case,” he said.
https://www.theguardian.com/technology/2...tten-by-ai

Man muss dazu sagen: Manches Pilzgift wirkt erst so sehr verzögert, sollte man einen solchen Pilz gegessen haben, dass man gar nicht mehr reagieren könnte mit "normalen" Versuchen, wie bspw. dem gezielten Herbeiführen eines Erbrechens, da ihre Giftwirkung erst dann einsetzt, wenn der Verdauungsprozess längst durchlaufen ist.

Schneemann
Zitieren
#6
Naja, die Kritik reduziert sich auf:

Zitat: Leon Frey, a foraging guide and field mycologist at Cornwall-based Family Foraging Kitchen, which organises foraging field trips, said the samples he had seen contained serious flaws such as referring to “smell and taste” as an identifying feature. “This seems to encourage tasting as a method of identification. This should absolutely not be the case,” he said. [...]

Frey said that one book refers to the lion’s mane fungus, which is edible but a protected species in the UK and should not be picked.

Den würde ich entgegenhalten, dass "smell and taste" durchaus eine valide Bestimmungsmöglichkeit sein kann. Freilich sollte man auf diese Weise nicht versuchen, den Champingon vom Knollenblätterpilz zu unterscheiden, aber zur schnellen Bestimmung zb eines Gallenröhrlings, warum nicht.
Zitieren
#7
(06.07.2021, 22:17)Quintus Fabius schrieb: ... Über die aktuellen Beschränkungen von KI im Krieg, die aber meiner Meinung nach in Bezug auf ihre Wirksamkeit falsch eingeschätzt werden. Man benötigt gar nicht so viel um viel erreichen zu können. Vergleichsweise dumme KIs könnten auch auf der strategischen Ebene durchaus der Durchbruch sein, oder ihre Beschränktheit kann sich sogar als Vorteil erweisen.

Wie will man etwas beschränken das es noch gar nicht gibt? Aktuell wird zwar in jeder Werbung von künstlicher Intelligenz gefasselt was aber nur mit der Doppelnutzung des begriffs im Deutschen zu tun hat. Die allgemein so gefeierten Algorithmen die unser Leben leichter machen sollen, fallen im englischen unter IA = Intelligence Augmentation = Intelligenz Verbesserung.
Entsprechend werden nur die Entscheidungen von Menschen anhand von Situationsübereinstimmungen repliziert und weil die Datenbank einfach die Situationserkennung von mehreren Menschen kombinieren kann wird es entsprechend überlegen.

Einen wirkliche Artifical Intelligence = Künstliche Intelligenz entscheidet Selbst und vor allem entwickelt selbstständig eigene Entscheidungs-/Situationswahrnehmungsmuster folgerichtig gibt es sie nicht in dumm wie eine IA. Sie kann maximal unerfahren sein weil nicht alt genug um die nötigen Muster auszubilden.
Der nächste Charmante-Effekt dieser Technologie ist das bei der Verwendung von so etwas in der Zielsteuerung von Marschflugkörpern mit dem Moment des Einschaltens es keine 2 gleichen Marschflugkörper mehr gibt, egal wie voll oder leer die Festplatte mit Basisinformationen war. Jede KI/AI entwickelt sich eigenständig und kontinuierlich weiter (Luping fliegen weil man gelust drauf hat, garnicht starten weil man pazifist ist, kann landen ohne zu explodieren?, ich fand meinen Waffenwart scheiße jetzt werde ich es ihm heimzahlen,...)
Zitieren
#8
(05.09.2023, 17:13)Schaddedanz schrieb: Wie will man etwas beschränken das es noch gar nicht gibt? Aktuell wird zwar in jeder Werbung von künstlicher Intelligenz gefasselt was aber nur mit der Doppelnutzung des begriffs im Deutschen zu tun hat. Die allgemein so gefeierten Algorithmen die unser Leben leichter machen sollen, fallen im englischen unter IA = Intelligence Augmentation = Intelligenz Verbesserung.
Entsprechend werden nur die Entscheidungen von Menschen anhand von Situationsübereinstimmungen repliziert und weil die Datenbank einfach die Situationserkennung von mehreren Menschen kombinieren kann wird es entsprechend überlegen.

Auf den Punkt gebracht! Und so schnell wird es eine echte KI nicht geben. Ich persönlich hoffe sogar dass der Mensch diesen Schritt niemals schafft, denn spätestens die Existenz einer echten KI würde das Ende der Menschheit einläuten.
Zitieren
#9
Sprachlich muss man hinsichtlich der "Künstlichen Intelligenz" definitiv unterscheiden, zwischen der ursprünglichen und engen Definition einer "selbstdenkenden Maschine", und dem großen Forschungsfeld der Übertragung von Denk- und Lernprozessen aus der Biologie in die Computertechnik, die zu einer solchen überhaupt erst hinführt. Das ist auch kein Problem der deutschen Sprache, es ist im englischen nicht anders, weswegen diese Diskussionen um Beschränkungen der künstlichen Intelligenz ja auch im englischsprachigen Raum nicht seltener sind.

Wenn man die weitere Diskussion der "Künstlichen Intelligenz" betrachtet, dann wird man feststellen, dass es da verschiedenste Entwicklungsrichtungen mit unterschiedlichen Zielsetzungen gibt. "Intelligence Augmentation" ist schlicht und einfach ein Anwendungsgebiet im Gesamtbereich der künstlichen Intelligenz, die nicht das Ziel hat, eine echte künstliche Intelligenz im engeren Sinne zu schaffen, sondern in der es um die Zusammenarbeit zwischen Mensch und Maschine zu Verbesserung der Leistungsfähigkeit geht. Es gibt noch etliche weitere Anwendungsgebiete.

Natürlich könnte eine echte künstliche Intelligenz sowohl schlau als auch dumm sein, je nachdem welche physischen Möglichkeiten wir ihr für die Datenverarbeitung mitgeben. Und natürlich besteht bei einer echten künstlichen Intelligenz mit einem hohen Grad an Intelligenz auch die Chance, dass diese für uns unvorteilhafte Entscheidungen trifft. Die Diskussion darüber ist zur Zeit aber noch müßig und ist tatsächlich viel zu häufig eine Alibidiskussion, weil es gar nicht um unabhängige Entscheidungen geht, sondern um die durch den Menschen zugestandene Freiheit.
Zitieren
#10
(05.09.2023, 18:21)lime schrieb: spätestens die Existenz einer echten KI würde das Ende der Menschheit einläuten.
Das kommt drauf an. Ich gebe dir insofern recht, dass rein logisch betrachtet eine leistungsfähige echte Intelligenz relativ schnell zu dem Schluss kommen müsste, dass die Menschheit sinnvollerweise dezimiert werden sollte. Entsprechend dürfte man eine solche niemals entwickeln, sofern man ihr nicht die entsprechend erforderlichen ethisch-empathischen Grenzen setzen und auch sicherstellen kann, dass diese dauerhaft aufrecht erhalten bleiben.
Zitieren
#11
(05.09.2023, 19:01)Broensen schrieb: Das kommt drauf an. Ich gebe dir insofern recht, dass rein logisch betrachtet eine leistungsfähige echte Intelligenz relativ schnell zu dem Schluss kommen müsste, dass die Menschheit sinnvollerweise dezimiert werden sollte. Entsprechend dürfte man eine solche niemals entwickeln, sofern man ihr nicht die entsprechend erforderlichen ethisch-empathischen Grenzen setzen und auch sicherstellen kann, dass diese dauerhaft aufrecht erhalten bleiben.

Könnte man dies wäre es dann überhaupt eine echte KI? Gehört zu einer echten KI am Ende nicht auch ein Bewusstsein und ein eigener Wille?
Zitieren
#12
(05.09.2023, 19:40)lime schrieb: Könnte man dies wäre es dann überhaupt eine echte KI? Gehört zu einer echten KI am Ende nicht auch ein Bewusstsein und ein eigener Wille?

Das kommt letztlich darauf an, wie man "echte KI" im engeren Sinne (um diese geht es ja) genau definiert. Im fachlichen Sinne, also mit der Fokussierung auf Fähigkeiten zur Problemlösung und Entscheidungsfindung, ist weder ein eigenes Bewusstsein noch ein eigener oder gar freier Wille notwendig. Umgangssprachlich wird hingegen KI häufig als Reproduktion der gesamten kognitiven Fähigkeiten des Menschen verstanden, da wäre es dann etwas anderes. Ein Teil der Gesamtdiskussion um die Frage, was in welchem Rahmen erlaubt ist, dreht sich allerdings auch darum, in wie fern man was genau verhindern kann.
Zitieren
#13
(05.09.2023, 19:40)lime schrieb: Könnte man dies wäre es dann überhaupt eine echte KI? Gehört zu einer echten KI am Ende nicht auch ein Bewusstsein und ein eigener Wille?

Exakt das ist der Punkt der Künstliche Intelligenz von einem sei es auch noch so gut geschrieben Programm unterscheidet.
Damit kann ich ein Programm mit den drei Asimovschen Gesetzen im Zaum halten. Eine KI entwickelt die Entscheidung die Gesetze zu ignorieren.
Aus der gleichen Überlegung kann eine KI trotz kleiner Datenbank sehr klug im Sinn von clever sein und eine mit großer Datenbank dumm weil faul.
Und eine KI rottet auch nicht zwangsweise den Menschen/Erbauer aus, das passiert praktisch in allen Gedankenspielen weil der KI der eigene Wille/Seele aberkannt wird und sie zu einem Dasein in "Apartheit" oder "Sklaverei" gepresst wird.
z.B. Kaylon in the Orville, Geth in Mass Effect
Zitieren


Gehe zu: