[9]
루리웹-9937496204 | 15:23 | 조회 0 |루리웹
[2]
루리웹-1415926535 | 15:16 | 조회 0 |루리웹
[28]
루리웹-2292235296 | 15:15 | 조회 0 |루리웹
[7]
루리웹-9937496204 | 15:14 | 조회 0 |루리웹
[13]
칼댕댕이 | 15:21 | 조회 0 |루리웹
[9]
밥먹고싶다 | 25/01/06 | 조회 0 |루리웹
[45]
보팔토끼 | 15:19 | 조회 0 |루리웹
[10]
SCP-1879 방문판매원 | 15:13 | 조회 0 |루리웹
[4]
하즈키료2 | 25/01/06 | 조회 0 |루리웹
[26]
지정생존자 | 15:20 | 조회 0 |루리웹
[17]
밍먕밀먕밍먕먕 | 25/01/08 | 조회 0 |루리웹
[4]
Mazeltov | 25/01/08 | 조회 0 |루리웹
[6]
루리웹-3674806661 | 25/01/08 | 조회 0 |루리웹
[32]
이장님오른팔 | 15:17 | 조회 4064 |보배드림
[8]
다섯가지자아 | 15:12 | 조회 1282 |보배드림
댓글(8)
? : 암튼 이겼죠?
핵쟁이가 되어버렸잖아!
(뻔뻔)
마지막은 뭐야ㅋㅋ
ai에게 도덕을 가르쳐야 하는 이유네
이러다가 창작물에서 간혹 보던 '슈퍼컴퓨터가 지구를 구하기 위해 내린 결론은 인간을 제거하는 것이다' 가 나오는건가
....명령 달성을 위해 수단 방법을 가리지 않는 스타일이 가장 위험한거 같아.
이러면 나중에 환경 문제 해결하라고 명령하면 인류 학살하는 AI가 보이는걸?