지금 나오는 AI언어모델들은 기본적으로 성능좋은 모델도 구동 시 GPU램을 얼추 100기가정도 사용하는 모델들로 만들어지잖아요?
100기가보다 더 쓸수도 있겠지만 아무튼 그 언저리에 최적화되어서 만드는것같은데
나중에 데이터센터 전체를 단 하나의 모델을 가동하는데 쓰인다면?
그런 초고성능을 사용할 수 있는 모델이 나온다면..?! 덜덜
그 정도 스케일의 ai나온다면 삼전은 10년 존버해도 되겠네요 ㄷㄷ
기업들이 그걸 승인할까요... 이건 마치 전 세계 모든 자동차 공장을 테슬라 제품 하나 만드는데 통합한다는 것과 같은 말인데..
데이터센터 전체라는게 데이터센터 하나 전체를 말한거였음요 ㅋㅋ 그 연산력으로 답변 하나 써보라그러면 ㄷㄷ
아마 작아지지않을까요? 에니악이 교실만한 크기에서 책상위에 올라가고 무릎위에 올릴 정도의 크기에서 손으로 들수있을정도로 작아졌듯이
그 정도 스케일의 ai나온다면 삼전은 10년 존버해도 되겠네요 ㄷㄷ