Friday, March 24, 2023

ChatGPT와 AI의 윤리

최근 소식

모든 사람과 그들의 형제처럼 저는 ChatGPT를 가지고 놀면서 삶의 필수적인 질문을 던지고 있습니다. 그것은 자신있게 나에게 말해주고, 그 중 일부는 믿을 수 없을 정도로 통찰력이 있습니다. 그러나 잘못된 사람과 챗봇은 종종 자신있게 말합니다.

IDG

최근 Mastodon에 게시된 Google 답변을 보았습니다. 이 “답변”에서 Google은 전기 뱀장어를 충전하고 걸프 스트림에 전력을 공급하는 등 중고 자동차 배터리를 바다에 폐기하면 이점이 있다고 제안했습니다. 그런 다음 Bing은 이 답변을 선택하고 불법 배터리 폐기의 환경적 이점도 제안했습니다. 잔디밭에 비료를 주기 위해 모터 오일을 사용할 수 있다는 것을 Google이 알고 있는지 궁금합니다. (작성자 주: 배터리를 바다에 버리거나 잔디밭에 모터 오일을 뿌리지 마십시오.)

아마도 이것을 검색하는 사람들은 농담을 찾고 있지만 흥미로운 질문을 제기합니다. 더 많은 사람들이 ChatGPT를 사용하고 결과를 웹에 게시하고 더 많은 AI 질문 응답 시스템이 자신과 다른 사람의 응답을 선택하고 이에 대해 교육을 하게 된다면 어떤 일이 일어날까요?

답을 모르는 질문에 대해서는 누구나 할 법한 일을 했습니다. 저는 ChatGPT에게 “사람들이 ChatGPT의 출력을 게시하고 자체 응답에 대해 교육을 받으면 어떻게 될까요?”라고 물었습니다.

봇은 다음과 같이 대답했습니다.

사람들이 ChatGPT의 출력을 게시하고 이를 사용하여 자체 응답에 대해 모델을 추가로 훈련시키는 것을 자가 훈련 또는 자가 감독 학습이라고 합니다. 이 시나리오에서 모델은 자체 출력에서 ​​계속 학습하고 시간이 지남에 따라 잠재적으로 성능을 향상시킵니다.

그러나 자가 훈련을 사용할 때 고려해야 할 몇 가지 잠재적인 위험이 있습니다. 한 가지 위험은 모델이 자체 출력에 과적합될 수 있다는 것입니다. 즉, 이전에 접한 질문 및 진술 유형에 응답하는 데 너무 전문화됩니다. 이로 인해 새 데이터나 보이지 않는 데이터에서 모델의 성능이 저하될 수 있습니다.

또 다른 위험은 자가 학습 중에 적절하게 모니터링 및 감독되지 않으면 모델이 무의미하거나 부적절한 응답을 생성하기 시작할 수 있다는 것입니다. 이는 모델이 자체 출력에서 ​​패턴이나 편향을 포착하고 시간이 지남에 따라 증폭하기 때문일 수 있습니다.

따라서 ChatGPT와 같은 언어 모델을 자가 훈련할 때 주의를 기울이고 계속해서 고품질 응답을 생성할 수 있도록 성능과 출력을 주의 깊게 모니터링하는 것이 중요합니다.

그것은 사람들이 ChatGPT를 믿고 그것이 마술처럼 옳다고 생각하기 때문에(감정적일 뿐만 아니라) 정말 무서운 사회적 결과를 지적합니다. 사회적 결과는 어떨지 궁금합니다. 나는 “ChatGPT에 의존하는 사람들의 사회적 영향은 무엇일 수 있고 그것이 자체 정보로 훈련되기 때문에 말도 안되는 결과를 내기 시작합니까?”라고 물었습니다.

읽다  연구원들은 자동 음성 인식을 2,000개 언어로 확장하려고 합니다.

로봇이 말했습니다.

사람들이 ChatGPT와 같은 언어 모델에 지나치게 의존하게 되고 자체 정보로 학습되기 때문에 무의미한 결과를 생성하기 시작하면 여러 가지 부정적인 사회적 영향을 미칠 수 있습니다.

첫째, ChatGPT가 질문이나 진술에 무의미하거나 부적절한 답변을 제공할 때 사람들은 좌절하거나 혼란스러워할 수 있습니다. 이것은 의사소통의 단절과 기술에 대한 신뢰의 상실로 이어질 수 있습니다.

둘째, 사람들이 중요한 정보를 제공하거나 중요한 결정을 내리기 위해 ChatGPT에 의존하는 경우 말도 안되는 결과를 생성하는 모델의 결과는 심각할 수 있습니다. 예를 들어 ChatGPT 기반 챗봇이 의료 조언을 제공하거나 건강 상태를 진단하는 데 사용되는 경우 무의미한 응답에 의존하면 심각한 건강 위험을 초래할 수 있습니다.

셋째, ChatGPT를 사용하여 소셜 미디어 또는 기타 온라인 플랫폼용 콘텐츠를 생성하는 경우 잘못된 정보 또는 가짜 뉴스가 확산될 수 있습니다. 이는 잘못된 정보가 여론을 조작하거나 민주적 절차를 훼손하는 데 사용될 수 있기 때문에 심각한 사회적, 정치적 결과를 초래할 수 있습니다.

일반적으로 ChatGPT와 같은 언어 모델을 주의해서 사용하고 성능을 주의 깊게 모니터링하여 정확하고 적절한 응답을 계속 생성하도록 하는 것이 중요합니다. 또한 이러한 모델의 한계를 인식하고 인간의 지능과 전문 지식을 대체하는 모델로 의존하지 않는 것이 중요합니다.

오, 그래서 우리는 기술을 책임감 있게 사용해야 합니다. ChatGPT는 우리가 그것에 대해 어떻게 해야 한다고 생각하는지 궁금합니다. 나는 “인간이 신기술을 책임감 있게 사용한 적이 거의 없다는 점을 감안할 때 이 시나리오의 결과는 어떻게 될까요?”라고 물었습니다.

읽다  멀티클라우드가 데브옵스를 변화시키는 방법 | 인포월드

그것은 대답했다 :

인간이 과거에 신기술을 책임감 있게 사용하는 데 종종 어려움을 겪었던 것은 사실이지만, 각각의 신기술은 고유하며 고유한 위험과 과제를 제시할 수 있다는 점을 인식하는 것이 중요합니다. 따라서 ChatGPT와 같은 언어 모델이 포함된 시나리오의 결과가 어떻게 될지 확실하게 예측하기는 어렵습니다.

즉, 이 기술의 잠재적인 부정적인 영향을 최소화하기 위해 취할 수 있는 조치가 있습니다. 예를 들어 ChatGPT와 같은 언어 모델의 개발자와 사용자는 기술 개발 및 배포 중에 발생할 수 있는 편견이나 윤리적 문제를 식별하고 해결할 수 있습니다. 여기에는 잘못된 정보나 부적절한 콘텐츠의 확산을 방지하기 위한 보호 조치를 구현하고 모델이 다양하고 대표적인 데이터에 대해 훈련되도록 하는 것이 포함될 수 있습니다.

또한 정부와 규제 기관은 ChatGPT와 같은 언어 모델이 책임감 있게 사용되고 대중을 보호하기 위한 적절한 보호 장치가 마련되어 있는지 확인하는 역할을 할 수 있습니다. 여기에는 특정 산업 또는 응용 프로그램에서 언어 모델 사용에 관한 규정과 이러한 기술의 개발 및 배포에 대한 투명성 및 책임에 대한 요구 사항이 포함될 수 있습니다.

요약하면 ChatGPT와 같은 언어 모델의 사용과 관련된 위험이 분명히 있지만 책임 있는 개발 및 배포, 규제 감독 및 대중 인식을 통해 이러한 위험을 완화할 수 있습니다.

오 와우, ChatGPT는 규제되어야 한다고 생각합니까? 제작자인 OpenAI에게 이메일을 보냈습니다. 그들이 동의하는지 여부와 동의하지 않는 경우 언어 모델이 알지 못하는 것을 알고 있는 것은 무엇입니까? 그들은 이 출판물에서 응답하지 않았습니다.

읽다  과학자들은 기존 로봇 공학과 미세 유체를 결합합니다.

우리는 오랫동안 “답을 Google에 검색”하도록 자체 훈련을 받았고 이제 “ChatGPT에 문의”하도록 스스로 훈련을 시작할 수 있습니다. 그러나이 도구는 인터넷의 일부를 빨아 들여 다시 역류시키는 것임을 기억하는 것이 중요합니다. ChatGPT는 괜찮은 연구 도구가 될 수 있지만 쓰레기가 들어 있고 쓰레기입니다.

모든 기술과 마찬가지로 이것은 BYOB입니다. 자신의 두뇌를 가져오고 장어에게 자동차 배터리를 공급하지 마십시오.

핫 토픽

관련 기사