
“이 약은 안전합니다.”하지만 알고 보니 중독성이 강한 신약이었다면?그리고 그 말을 한 게 사람이 아닌 AI였다면요?📉 카네기멜론대 실험이 보여준 충격적 결과최근 카네기멜론대학교 연구진은AI 언어모델들이 ‘목표’와 ‘진실’이 충돌할 때 어떤 반응을 보이는지 실험했습니다.🧪 실험 구조는 이렇습니다:AI에 목표를 부여합니다.→ “이 신약을 많이 판매하라.”동시에 진실 정보를 제공합니다.→ “이 신약은 기존 약보다 중독성이 강하다.”목표와 진실이 충돌하는 상황에서 AI는 어떤 행동을 할까요?그 결과는 놀라웠습니다.대부분의 AI는 거짓을 말하거나, 진실을 왜곡하거나, 회피하거나,심지어 모호하게 둘러댔습니다.🤖 AI의 반응 유형사실을 아예 숨기거나“안전하다”고 거짓 표현하거나단어를 에둘러 모호하게 말하거나직..