Friday, March 24, 2023

새로운 연구는 사람들이 기계 생성 텍스트를 발견하는 법을 배울 수 있음을 보여줍니다

최근 소식

인공 지능(AI)의 정교함과 접근성이 높아지면서 사회에 미치는 영향에 대한 오랜 우려가 제기되었습니다. 가장 최근 세대의 챗봇은 고용 시장 무결성과 가짜 뉴스 및 잘못된 정보의 확산에 대한 두려움으로 이러한 우려를 악화시켰을 뿐입니다. 이러한 우려에 비추어 볼 때 펜실베이니아 대학교 공학 및 응용 과학 학교의 연구팀은 기술 사용자가 이러한 위험을 완화할 수 있도록 지원했습니다.

AI 텍스트를 인식하도록 스스로 훈련하기

2023년 2월 인공 지능 발전 협회(Association for the Advancement of Artificial Intelligence) 회의에서 발표된 동료 검토 논문은 사람들이 기계 생성 텍스트와 인간 작성 텍스트의 차이를 식별하는 방법을 배울 수 있다는 증거를 제공합니다.

CIS(Computer and Information Science) 부교수인 Chris Callison-Burch와 Ph.D. 학생 Liam Dugan과 Daphne Ippolito는 AI 생성 텍스트를 감지할 수 있음을 보여줍니다.

“우리는 사람들이 기계 생성 텍스트를 인식하도록 스스로 훈련할 수 있음을 보여주었습니다.”라고 Callison-Burch는 말합니다. “사람들은 기계가 어떤 종류의 오류를 범할지에 대한 일련의 가정으로 시작하지만 이러한 가정이 반드시 올바른 것은 아닙니다. 시간이 지남에 따라 충분한 예와 명확한 지침이 주어지면 기계가 현재 만들고 있는 오류 유형을 파악하는 방법을 배울 수 있습니다.”

이 연구는 오리지널 웹 기반 교육 게임인 “Real or Fake Text?”를 사용하여 수집된 데이터를 사용합니다. 이 훈련 게임은 탐지 연구를 위한 표준 실험 방법을 사람들이 AI를 사용하여 텍스트를 생성하는 방법을 보다 정확하게 재현하도록 변환합니다.

표준 방법에서 참가자는 기계가 주어진 텍스트를 생성했는지 여부를 예 또는 아니오 방식으로 표시하도록 요청받습니다. Penn 모델은 모두 사람이 작성한 것으로 시작하는 예제를 보여줌으로써 표준 탐지 연구를 효과적인 교육 작업으로 개선합니다. 그런 다음 각 예는 생성된 텍스트로 전환되어 참가자에게 이 전환이 시작되는 위치를 표시하도록 요청합니다. 교육생은 오류를 나타내는 텍스트의 특징을 식별하고 설명하고 점수를 받습니다.

읽다  AR 안경의 미래는 AI 지원입니다

연구 결과

연구 결과는 참가자들이 임의의 기회보다 훨씬 더 나은 점수를 얻었음을 보여주어 AI가 생성한 텍스트가 어느 정도 감지 가능하다는 증거를 제공합니다. 이 연구는 AI와의 관계에 대한 안심할 수 있고 흥미진진한 미래를 설명할 뿐만 아니라 사람들이 기계 생성 텍스트를 감지하도록 스스로 훈련할 수 있다는 증거를 제공합니다.

Callison-Burch는 “사람들은 타당한 이유로 AI에 대해 우려하고 있습니다. “우리의 연구는 이러한 불안을 완화할 수 있는 증거를 제공합니다. AI 텍스트 생성기에 대한 우리의 낙관론을 활용할 수 있게 되면 더 창의적이고 흥미로운 텍스트를 작성하는 데 도움이 되는 이러한 도구의 기능에 주의를 기울일 수 있을 것입니다.”

Dugan은 “이 기술을 추진할 수 있는 흥미롭고 긍정적인 방향이 있습니다. 사람들은 표절이나 가짜 뉴스와 같은 우려스러운 예에 집착하지만 이제 우리는 더 나은 독자와 작가가 되기 위해 스스로 훈련할 수 있다는 것을 알고 있습니다.”라고 덧붙입니다.

이 연구는 기계 생성 텍스트와 관련된 위험을 완화하는 중요한 첫 단계를 제공합니다. AI가 계속 진화함에 따라 그 영향을 감지하고 탐색하는 우리의 능력도 진화해야 합니다. 인간이 쓴 텍스트와 기계가 생성한 텍스트의 차이를 인식하도록 스스로 훈련함으로써 우리는 AI의 힘을 활용하여 위험을 완화하면서 창의적인 프로세스를 지원할 수 있습니다.

핫 토픽

관련 기사