
美 배심원단, 메타·구글의 ‘무한 스크롤·중독 유도’에 거액 배상 판결xAI ‘그록’ 등 생성형 AI 서비스도 성착취물 방지 의무 강화 추세 미국에서 메타와 구글의 소셜미디어 설계 책임을 인정한 배심원 평결과 메타의 아동 보호 책임을 인정한 판결이 잇따라 나왔다. 이를 계기로 IT기업 책임 논의가 콘텐츠 관리에서 플랫폼 설계와 운영 방식까지 확대되는 흐름이 나타난다. 지난 3월 25일(현지시간) 미국 캘리포니아주 로스앤젤레스 배심원단은 메타와 구글이 각각 인스타그램과 유튜브의 설계·운영 과정에서 과실이 있으며, 서비스 이용에 따른 위험을 충분히 알리지 않았다고 판단했다. 재판에서는 무한 스크롤과 자동 재생 등 이용 시간을 늘리도록 설계된 기능과 추천 구조가 쟁점이 됐다. 이러한 이용 방식이 한 젊은 이용자의 우울증과 자살 충동 등 정신 건강 문제로 이어진 것으로 봤다. 배심원단은 메타에 420만 달러(약 63억5000만 원), 구글에 180만 달러(약 27억2000만 원)의 손해배상 책임을 인정했다. 바로 전날인 3월 24일, 뉴멕시코주 법무당국이 메타를 상대로 제기한 소송에서도 배상 책임이 인정됐다. 법원은 메타가 어린 이용자들에게 플랫폼의 안전성을 충분히 설명하지 않은 채, 아동이 성적 노출이나 성범죄자 접촉 위험에 노출될 수 있는 환경을 방치했다고 판단했다. 배상액은 3억7500만 달러(약 5700억 원)에 이른다. 이 같은 판결은 지난 30년간 온라인 플랫폼을 소송으로부터 보호해 온 통신품위법 230조(Section 230) 해석에도 영향을 미친다. 이 법은 기본적으로 이용자가 올린 콘텐츠에 대해 플랫폼이 책임을 지지 않도록 하는 장치다. 그런데 최근 소송에서는 ‘무엇이 올라왔는지’보다 플랫폼이 서비스를 어떻게 설계하고 운영했는지, 또



























