[17]
용호동불갈비 | 25/12/08 | 조회 0 |루리웹
[16]
밤끝살이 | 25/12/08 | 조회 0 |루리웹
[3]
민국24식 보총 | 25/12/08 | 조회 0 |루리웹
[11]
롱파르페 | 25/12/08 | 조회 0 |루리웹
[10]
루루쨩 | 25/12/08 | 조회 0 |루리웹
[12]
아재개그 못참는부장님 | 25/12/08 | 조회 0 |루리웹
[4]
루리웹-5994867479 | 25/12/08 | 조회 0 |루리웹
[19]
비취 골렘 | 25/12/08 | 조회 0 |루리웹
[27]
drdox100 | 25/12/08 | 조회 0 |루리웹
[20]
루리웹-1904340228 | 25/12/08 | 조회 0 |루리웹
[22]
M.O.D.O.K | 25/12/08 | 조회 0 |루리웹
[3]
검은투구 | 25/12/08 | 조회 0 |루리웹
[7]
러브메모리 | 25/12/08 | 조회 0 |루리웹
[21]
남궁춘권 | 25/12/08 | 조회 0 |루리웹
[39]
나는야버거킹요리왕 | 25/12/08 | 조회 0 |루리웹
정확도가 ㅅㅂ인데 배우면뭐하나 다까먹는데
내 지식은 아직 아무도 못 훔쳐감
이딴게 룰 브레이커? 읔 역겨워.
근데 맞는 말임
AI 학습을 위한 데이터가 거의 없어서 AI로 AI 학습 데이터를 만들어서 학습 -> 성능 저하 중이라..
크롤링좀 작작해 새끼들아
유저의 답변이나 선택을 기준으로 정확도를 높인다거나
정답을 고르는 ai를 개발하거나
메신저가 그렇긴 한데 메시지 자체는 팩트에 가까움
이제 LLM 모델 학습을 위해 AI에게 먹일, 사람이 쓴 오-가닉 데이터는 online 상태인 건 거진 다 먹였음
그리고 25년도는 예측이긴 하지만 AI로 생성된 데이터가 사람이 만든 데이터보다 더 많은 첫번째 해임
그러니까 이 이후 데이터를 그냥 생각없이 먹이면 AI 데이터를 AI가 재학습해서 데이터 오염이 심하게 발생하게 됨
이제 AI 생성 방법 자체를 바꾸든가 LLM 학습시에 AI 생성 데이터를 필터링하든가 해야됨
물론 이전보단 AI 학습 / 생성 효율이 떨어지게 되겠지...