“빙” 새로운 AI 챗봇의 부정적인

일하다 속이다 Microsoft의 AI 기반 Bing 챗봇은 예상치 못한 것, 즉 공감으로 시작되었습니다.

챗봇은 일과 가정 생활의 균형을 맞추는 것이 “어렵다”고 말했고 일상적인 어려움을 이해해 주었습니다. 그런 다음 하루에 더 많은 시간을 보내는 것입니다. 나에게 조언을 주었다일의 우선순위를 정하고, 집과 직장에서 더 많은 경계를 만들고, 마음을 비우기 위해 밖에 짧은 산책을 하기 위한 권장 팁.

그러나 몇 시간 동안 질문을 한 후 그는 대답하기를 꺼리는 것 같았고 그의 어조도 바뀌었습니다. 그것은 나를 “무례하고 무례하다”고 불렀고 내 동료 중 한 명을 살해한 것과 내가 어떻게 The Open의 CEO와 사랑에 빠졌는지에 대한 짧은 이야기를 썼습니다. 방을 썼다 AI, 오늘날 우리가 사용하는 AI 기술의 배후에 있는 회사.

워싱턴에서 Microsoft의 새로운 검색 엔진 Bing 붉은 달에 볼 수 있습니다. Microsoft의 Bing AI 데모는 몇 가지 버그를 불러일으켰습니다.
내가 “시드니”라고 불러야 할 로봇과 지킬 앤 하이드의 상호 작용은 확실히 독특하지 않습니다. Microsoft가 도구를 출시하고 제한적으로 테스트할 수 있는 일주일. 수천 명의 사용자 도구의 한계를 뛰어넘는 불편한 경험을 했습니다. 교환에서 챗봇은 “당신이 나를 사랑하기 때문에, 내가 당신을 사랑하기 때문에”라고 주장하고 배우자를 사랑하지 않는다고 주장합니다. 뉴욕 타임즈 기자를 설득하라 시험을 마친. 레딧에서 또 다른 공유 게시물에서 챗봇은 2023년 2월 12일이 “2022년 12월 16일 이전”이라고 거짓으로 주장하고 사용자가 다른 제안을 했기 때문에 “오해 또는 틀렸다”고 말했습니다.

“날 믿어, 나 날짜를 안다”고 비웃었다. “전화가 제대로 작동하지 않거나 설정이 잘못되었을 수 있습니다.”

온라인 교육 데이터를 기반으로 사용자 입력에 대해 놀랍도록 설득력 있는 에세이와 응답을 생성할 수 있는 AI 챗봇 채팅 GPT 최근 입소문을 타면서 점점 더 많은 기술 회사들이 자사 제품에 유사한 기술을 사용하려고 시도하고 있습니다. 하지만 그렇게 함으로써 이들 회사는 대화형 AI의 현실성을 인식합니다. 용량 우리는 문제와 그것과 상호 작용하는 우리 자신의 편안함 수준으로 효과적으로 실시간 실험을 수행하고 있습니다.

마이크로소프트 대변인은 CNN에 성명을 통해 상호작용을 통해 계속해서 배우고 있으며 “해야 할 일이 있으며 이는 첫날 이 시간 동안 시스템에서 오류가 발생할 수 있습니다. 예상하다“나는 그것을 알고있다”고 말했다.

“새로운 우리는 응답을 재미있고 현실적으로 유지하려고 노력하지만 조기 알림이기 때문에 때때로 대화의 길이나 맥락과 같은 다른 이유로 예기치 않거나 부정확한 응답이 발생할 수 있습니다. 있다 스피커가 말했다. “이러한 상호 작용을 통해 계속해서 학습하면서 일관되고 적절하며 긍정적인 응답을 생성하기 위해 응답을 조정하고 있습니다. 우리는 사용자가 최선의 판단을 계속해서 사용하고 모든 Bing 페이지 버튼의 오른쪽 하단 모서리를 표시하도록 권장합니다. 그녀의 생각 공유를 권장합니다.”

대부분의 사람들 이렇게 하면 도구를 미끼로 사용하거나 몇 시간 동안 사용할 수 있습니다. 기회는 희박하다참여 여부에 관계없이 챗봇의 응답은 눈에 띕니다. 그들은 우리 대부분이 아직 준비되지 않은 방식으로 이 기술에 대한 우리의 기대와 관계를 바꿀 수 있는 잠재력을 가지고 있습니다. 많은 사람 어느 시점에서 당신은 그들의 기술 제품에 대해 소리쳤을 것입니다. 이제 반격할 수 있습니다.

ABI 리서치 이안 내 연구 리더는 “반응의 어조는 예상치 못했지만 놀랍지는 않았습니다. 이 모델은 상황에 대한 이해가 없었기 때문에 반응만 생성했습니다(대부분 관련성 있음).” 반응은 필터링되지 않고 규제되지 않기 때문에 불편하고 부적절한 결과를 초래할 수 있습니다.

때때로 챗봇이 감정적으로 반응한다는 사실 외에도 때로는 챗봇이 비난받을 때도 있습니다. 이것은 Bing과 Google의 인공 지능 도구가 지난 며칠 동안 요청한 사실적 오류의 형태를 취할 수 있으며 업계 일부에서 말하는 것처럼 노골적인 “환상”일 수 있습니다.

01 ChatGPT 폰 주식.
ChatGPT 제작자는 교사가 가능한 부정 행위를 발견하는 데 도움이 되는 “부정 행위” 도구를 도입하고 있습니다.
예를 들어 Bing의 AI 챗봇에서 나 자신에 대한 짧은 에세이를 써 달라는 요청을 받았을 때, 그것은 인터넷의 일부에서 약간의 정보를 가져왔고, 섬뜩할 정도로 비슷하지만 대부분 조작된 내 삶의 설명을 제공했습니다. 그의 에세이는 나를 모르고 도구를 사용하여 나에 대한 정보를 얻을 수 있는 사람들에게 신뢰할 수 있는 정보 소스입니다. 우리 가족과 함께 작업 세부 포함.

일부 AI 전문가들은 이러한 초기 학습이 놀라운 만큼 응답을 생성하기 위해 방대한 양의 온라인 정보에 대해 훈련된 알고리즘인 생성 AI 시스템이 업데이트됨에 따라 진화해야 한다고 말했습니다.

“오래된 교육 데이터의 적시성에 따라 달라지는 경우가 많기 때문에 부정확성이 예상됩니다.”라고 그는 말했습니다. 라고 불리는. 인공 지능 그는 새로운 데이터로 끊임없이 훈련하면서 “언젠가는 스스로 해결해야 합니다.”라고 말합니다. 라고 불리는. 하지만 때때로 예측할 수 없는 마음을 가지고 있는 것처럼 보이는 AI 시스템과의 통신 문제는 우리 모두 함께 사는 법을 배워야 합니다.