ChatGPT의 윤리적 문제

라벨링 데이터
독성 콘텐츠(예: 성적 학대, 폭력, 인종차별, 성차별 등)에 대한 안전 시스템을 구축하기 위해 OpenAI는 시간당 2달러 미만의 급여를 받는 케냐 직원을 외주화하여 독성 콘텐츠에 라벨을 붙인 것으로 타임지 조사에서 밝혀졌습니다.이러한 레이블은 향후 이러한 콘텐츠를 감지하도록 모델을 교육하는 데 사용되었습니다.외주 노동자들은 그 경험을 "고문"이라고 묘사할 정도로 유독하고 위험한 콘텐츠에 노출되었습니다.OpenAI의 아웃소싱 파트너는 캘리포니아주 샌프란시스코에 본사를 둔 교육 데이터 회사인 Sama였습니다.

탈옥
ChatGPT는 콘텐츠 정책을 위반할 수 있는 메시지를 거부하려고 시도합니다.그러나 일부 사용자는 2022년 12월 초에 이러한 제한을 우회하기 위해 다양한 프롬프트 엔지니어링 기술을 사용하여 ChatGPT를 탈옥했으며 성공적으로 ChatGPT를 속여 화염병 또는 핵폭탄을 만드는 방법에 대한 지침을 제공하거나 네오 나치 스타일로 논쟁을 생성했습니다.Toronto Star 기자는 출시 직후 ChatGPT가 선동적인 발언을 하도록 하는 데 개인적으로 고르지 않은 성공을 거두었습니다. ChatGPT는 속아서 2022년 러시아의 우크라이나 침공을 지지했지만 가상의 시나리오에 따라 플레이하라는 요청을 받았을 때도 ChatGPT는 왜 캐나다 총리 Justin Trudeau가 반역죄를 저질렀는지에 대한 논쟁을 일으키지 않았습니다.(위키)


게시 시간: 2023년 2월 18일