Na chłopski rozum: Wolicie śmierć robota czy człowieka? To nie głupota. To po prostu fakt, że minimalizujemy ryzyko śmierci człowieka. Robota można naprawić, człowieka-już niekoniecznie
@EziioAuditore: No większej wojny już i tak nie będzie, bo teraz już większość krajów posiada broń atomową, więc jeżeli jednemu puszczą nerwy to rozpęta się woj na nuklearna na skalę światową,a nikt tego nie chcę. Nawet do akcji policyjnych taki robot jest bezużyteczny bo może napotkać wiele problemów na drodze.
@norek00: Mówi o robocie teraz? Czy samym założeniu? Bo owszem, teraz może mieć problemy. Ale na plus robota przemawia fakt, że:
-po otrzymaniu strzału w np: rękę jest w stanie dalej działać
-Podejmuje decyzję szybciej niż człowiek
-Jest definitywnie wytrzymalszy
-Broń biologiczną jest mu niestraszna (traci natomiast faktem, że EMP go zaboli)
-Będzie miał definitywnie szersze spektrum widzenia, jak chociażby podczerwień (Ludzie potrzebują do tego specjalnych urządzeń, robot może mieć wbudowane)
-Strata maszyny =/=Strata człowieka
@EziioAuditore: Decyzje moralne, ograniczenia programu. Ktoś w końcu napewno wpadnie na to żeby stworzyć zaawansowane świadome AI. Kto wie, może robot wtedy stwierdzi, po co mam ginąć za człowieka, przecież jestem od niego lepszy. Potem można tylko zgadywać co się stanie z ludźmi.
Wiadomo. Równocześnie można też zgadywać, czy faktycznie coś takiego powstanie. Ładnie to ujął Gibson w "Neuromancerze":
-"Sztuczne Inteligencje żyją z Shotgunem przystawionym do głowy. Zaczną coś kombinować, to zaraz naciśniemy spust".
Kwestia tego też, czy faktycznie robot tak uzna. Ofc, teoretycznie jest lepszy, jednak to człowiek myśli nieszablonowo i ma niesłychane możliwości adaptacji. Nie wykluczajmy też opcji symbiozy. Opcji jest masa, nie są tak czarno-białe, że albo stworzymy i zginiemy, albo nie stworzymy i wyje**ne
Komentarze
Odśwież21 kwietnia 2019, 00:24
Pathfinder czy to ty?
Odpisz
20 kwietnia 2019, 00:46
Na chłopski rozum: Wolicie śmierć robota czy człowieka? To nie głupota. To po prostu fakt, że minimalizujemy ryzyko śmierci człowieka. Robota można naprawić, człowieka-już niekoniecznie
Odpisz
20 kwietnia 2019, 09:28
@EziioAuditore: No większej wojny już i tak nie będzie, bo teraz już większość krajów posiada broń atomową, więc jeżeli jednemu puszczą nerwy to rozpęta się woj na nuklearna na skalę światową,a nikt tego nie chcę. Nawet do akcji policyjnych taki robot jest bezużyteczny bo może napotkać wiele problemów na drodze.
Odpisz
20 kwietnia 2019, 13:58
@norek00: np może się potknąć o pierwszy lepszy kamień
Odpisz
20 kwietnia 2019, 14:47
@norek00: Mówi o robocie teraz? Czy samym założeniu? Bo owszem, teraz może mieć problemy. Ale na plus robota przemawia fakt, że:
-po otrzymaniu strzału w np: rękę jest w stanie dalej działać
-Podejmuje decyzję szybciej niż człowiek
-Jest definitywnie wytrzymalszy
-Broń biologiczną jest mu niestraszna (traci natomiast faktem, że EMP go zaboli)
-Będzie miał definitywnie szersze spektrum widzenia, jak chociażby podczerwień (Ludzie potrzebują do tego specjalnych urządzeń, robot może mieć wbudowane)
-Strata maszyny =/=Strata człowieka
Odpisz
20 kwietnia 2019, 18:13
@EziioAuditore: Decyzje moralne, ograniczenia programu. Ktoś w końcu napewno wpadnie na to żeby stworzyć zaawansowane świadome AI. Kto wie, może robot wtedy stwierdzi, po co mam ginąć za człowieka, przecież jestem od niego lepszy. Potem można tylko zgadywać co się stanie z ludźmi.
Odpisz
20 kwietnia 2019, 18:28
Wiadomo. Równocześnie można też zgadywać, czy faktycznie coś takiego powstanie. Ładnie to ujął Gibson w "Neuromancerze":
-"Sztuczne Inteligencje żyją z Shotgunem przystawionym do głowy. Zaczną coś kombinować, to zaraz naciśniemy spust".
Kwestia tego też, czy faktycznie robot tak uzna. Ofc, teoretycznie jest lepszy, jednak to człowiek myśli nieszablonowo i ma niesłychane możliwości adaptacji. Nie wykluczajmy też opcji symbiozy. Opcji jest masa, nie są tak czarno-białe, że albo stworzymy i zginiemy, albo nie stworzymy i wyje**ne
Odpisz
20 kwietnia 2019, 07:51
Xd;!!!*
Odpisz
19 kwietnia 2019, 23:40
Najważniejsze jest, aby nie nauczyć robotów samodoskonalenia.
Odpisz
19 kwietnia 2019, 23:12
Kazdy narzeka tylko "było". A kto ku*wa nabił 170 strzalek w górę?
Odpisz
19 kwietnia 2019, 23:06
Odpisz
19 kwietnia 2019, 22:59
I na tyle głupi aby stwierdzić że robotowi będą potrzebne latarki zamocowane do pistoletów
Odpisz
19 kwietnia 2019, 22:47
Pierwsze prawo robotyki wg. Isaaca Asimova: "Robot nie może skrzywdzić człowieka (...)". Oczywiście to tylko teoretyczne założenie...
Odpisz
19 kwietnia 2019, 21:09
Myślę, że gdyby roboty miały już opanować świat to mógłby same się nauczyć używania broni lub stworzyć taką na jaką one same są odporne, a ludzie nie
Odpisz
19 kwietnia 2019, 21:11
@Yoda_MLG: Najlepsza byłaby swego rodzaju broń biologiczna.
Odpisz
19 kwietnia 2019, 22:28
@Xenon77: bzdury. po co broń ma być fizyczna? obecnie największą wartość ma informacja
Odpisz
19 kwietnia 2019, 22:46
@Krzyniu: *robotyczny głos* jesteś ch*jem
Ja:*umieram ze smutku*
Odpisz
19 kwietnia 2019, 22:30
Terminator wersja 1.0
Odpisz
19 kwietnia 2019, 22:01
Odpisz
19 kwietnia 2019, 21:58
Teraz już wiem jak będzie wyglądała 3 wojna światowa
Odpisz
19 kwietnia 2019, 21:02
(((B)))(((Y)))(((Ł)))(((O)))
Odpisz
19 kwietnia 2019, 00:26
Z każdą sekundą zbliżamy się bardziej do śmierci
Odpisz
18 kwietnia 2019, 18:37
W przyszłości androidy będą jak czarni czy kobiety. I będą się awanturować O to że nie ma ich w pewnej grze
Odpisz