인공 지능은 결함이 있습니까?

인공 지능에 대한 인간 개입의 의사 전자 공학적 잠재력

istockphoto

출처 : istockphoto

우리는 기술 혁신의 역사에서 다음 주요 시대 인 인공 지능 혁명 (AIR)의 중심에 서 있습니다. 인공 지능 (AI)은 과학 연구뿐만 아니라 비즈니스, 금융, 소비자, 예술, 건강 관리, 스포츠, 대중 문화 및 지정학에서도 세계적으로 추진력을 얻고 있습니다. 인공 지능이 보급되면서, 거시적 인 차원에서 인공 지능이 무질서로 인해 얻는지를 조사하는 것이 중요합니다. Antifragile은 Nassim Nicholas Taleb가 제시 한 용어이자 개념으로, 이전의 양적 상인이자 자기 주장의 “flâneur”는 뉴욕 타임즈의 베스트셀러 “The Black Swan : The Very Swannable의 영향”을 썼다. Taleb는 antifragile을 탈레반 (Taleb)에 따르면, “잔해에서 벗어남”뿐만 아니라 “생존하고 번영하기 위해서는 그것을 필요로한다”는 단점을 가지고있다. “인공 지능은 단조롭지 않습니까? 대답은 그것이 직관적이지 않을 수도 있습니다.

최근의 인공 지능의 발전은 주로 깊은 학습을 통한 패턴 인식 능력의 향상에 기인합니다. 기계 학습의 하위 집합 인이 학습은 명시 적 프로그래밍을 필요로하지 않는 인공 지능의 한 방법입니다. 학습은 2 개 이상의 비선형 처리 계층을 통해 데이터 세트를 공급함으로써 이루어집니다. 볼륨이 높을수록 데이터 처리 속도가 빠를수록 컴퓨터가 더 빨리 학습합니다.

보다 빠른 처리는 GPU (그래픽 처리 장치)의 병렬 처리 기능과 CPU (중앙 처리 장치)의 직렬 처리 기능을 주로 사용합니다. 흥미롭게도 컴퓨터 게임은 심층 학습의 발전을 가속화 시켰으며, 따라서 현재의 AI 붐에서도 중요한 역할을합니다. 원래 컴퓨터 게임용 그래픽 렌더링에 주로 사용되었던 GPU는 현재 심층 학습 아키텍처의 필수적인 부분입니다. 설명하기 위해 고객이 각각 줄 지어있는 3 개의 아이스크림 카트가 있다고 가정 해보십시오. 직렬 처리에서, scooper는 동시에 모든 카트를 제공하는 것을 목표로하고 다음 번 서비스를 제공하기 전에 한 번에 몇 개의 원뿔을 긁어 모으는 카트 사이에서 튀어 나와서 수행합니다. 병렬 처리에는 하나의 스쿠퍼가 아닌 여러 개의 스쿠퍼가 있습니다. 정통한 고객은 빠른 결과를 얻기 위해 카트 사이에서 주문을 동시에 나눕니다.

대용량 및 다양한 데이터로 깊은 학습 효과를 얻을 수 있습니다. 편차가 있거나 낮은 품질의 출력을 최소화하는 데있어 특이 치를 포함한 크고 다양한 데이터 세트에 대한 액세스가 반드시 필요합니다. 데이터의 속담에서 마시는 것은 깊은 학습을위한 스트레스 요인이 아니라 오히려 원하는 시나리오입니다. 기계 학습은 큰 데이터를 바탕으로 번창하며 정보의 혼돈으로부터 질서를 불러옵니다. 인공 지능은 데이터 다양성으로부터 깊은 학습을 얻습니다.

심층 학습의 내재적 인 부동성에 대한주의 사항은 잘못된 인간 관리로 인한 의원 성 (Iatrogenic) 효과로 인한 우발적 인 부작용의 잠재적 위험입니다. “Antifragile”에서 Taleb는 “순진한 개입주의”에서 비롯된 “유해한 의도하지 않은 부작용”이라는 문구 대신 “의학 의사 (Iatrogenic)”라는 용어를 사용합니다. 인공 지능은 기계 기반 시스템이지만 인간에 의해 궁극적으로 생성되고 관리됩니다. AI 심층 학습 데이터 세트 및 알고리즘을 인간이 개입하면 발생할 수있는 많은 의도하지 않은 결과가 발생할 수 있습니다. 세계 최고 성능의 토스터기에 곰팡이가 많은 빵을 넣으면 여전히 차선의 토스트가됩니다.

Cami Rosso

출처 : Cami Rosso

“쓰레기통, 쓰레기통”(GIGO)의 고전적인 컴퓨터 과학 경구는 깊은 학습에 공감합니다. 사람 운영자는 데이터 세트 크기, 소스, 선택, 타이밍, 빈도, 태깅 및 AI 시스템에 대한 수동 재 지정을 주로 결정합니다. 인공 지능 알고리즘을 만드는 인간 프로그래머는 시스템 순위, 우선 순위 지정, 연관성, 분류 및 필터링에 사용되는 기준과 메트릭스를 정의합니다. 불완전한 주목할만한 데이터 포인트가있을 때, 프로그래머는 합성 데이터 포인트를 생성함으로써 개입 할 수 있습니다. 인간 프로그래머는 알고리즘 튜닝을 결정합니다. 인간 개입의 잠재적 의학 의사 결정 효과에는 편차가있는 출력, 열등한 패턴 인식, 왜곡 된 결과, 잘못된 알고리즘, 부적절한 가중치, 부정확 한 속성 및 가양 성 또는 음화가 포함될 수 있습니다. 토스터에 신선한 빵을 넣으시고 가열이나 가열 과정을 너무 높게 또는 낮게 조정하면 타거나 불충분 한 토스트와 같은 의도하지 않은 결과가 발생할 수 있습니다. AI의 깊은 학습은 산란하지는 않지만 깨지기 쉬운 인적 요소입니다.

이것은 인공 지능이 인간 개입의 요점을 대체하는 데 사용될 수 있는지의 문제, 즉 자기 통제 AI 시스템을 제기한다. 이론적으로 이것은 가능합니다. AI는 다른 AI 프로그램을 제작하고 관리하기 위해 생성 할 수 있습니다. 예를 들어, 훈련 세트에 대한 데이터 선택, 데이터 특이점에 대한 플래그 지정, 위양성 또는 네거티브 예측, 알고리즘의 합성 데이터 포인트 제안 및 기타 여러 기능과 같은 작업에 집중할 수있는 개별 AI 프로그램을 만들 수 있습니다. 전문 AI 프로그램 네트워크를 관리하는 주요 AI 시스템을 계획합니다. 처리하는 동안, 중요한 AI는 전문가 AI를 활성화시켜 인간이 개입해야했던 작업을 수행합니다.

이것은 크고 복잡한 시스템이며, 자기 조절 AI 심층 학습에 대한이 접근법에 대한 많은주의 사항이 있습니다. 스스로 조절하는 AI 심화 학습 시스템의 가장 불안한 특성 중 하나는 동적 시스템의 작은 차이가 광범위하고 광범위한 결과를 초래할 수 있다는 개념 인 “나비 효과”의 가능성이 증가한다는 것입니다. MIT의 기상학 교수 인 에드워드 로렌츠 (Edward Lorenz)는 카오스 이론과 나비 효과의 아버지입니다. 나비 효과라는 용어는 Lorenz의 논문 “예측 가능성 : 브라질 나비 날개의 날개가 텍사스에서 토네이도를 일으 킵니까?”[1]에서 제시되었습니다. 이 경우 모듈 형 인공 지능 구성 요소 프로그램에서 자체 조정 AI 시스템을 구축 할 때 사람이 조금만 개입하면 전체 AI 시스템 출력에 큰 차이가 발생할 수 있습니다.

그래서 우리는 인공 지능 깊은 학습 기술 자체가 본질적으로 산란하지 않는 것처럼 보이지만, 인간 개입의 잠재적 인 의사 발생 효과 인 아킬레스 건은 체계적인 취약성과 취약성의 근원임을 입증했습니다. 로렌 즈 버터 플라이 효과에 대한 민감성을 감안할 때, 자체 조절 AI 시스템의 생성은 더욱 취약합니다. 데이터 또는 알고리즘과 상관없이 초기 구성 요소의 초기 시스템 설정에서 발생하는 모든 인적 오류는 대규모 출력 오류. 최상의 데이터 세트를 가진 최상의 설계 AI 알고리즘은 여전히 ​​인간의 취약성에 취약합니다. 인공 지능은 본질적으로 허약합니다. 인간이 인공 지능 시스템을 관리하는 방식은 전반적인 견고 함과 내결함성을 결정합니다. AI의 미래 성공은 시간이 지남에 따라 모범 사례가 공생하는 진화를 “배우는”인간과 기계의 능력에 달려 있습니다.

Copyright © 2018 Cami Rosso 모든 권리 보유.

참고 문헌

1. Dizikes, Peter. “Butterfly Effect가 비행기를 탈 때.” MIT Technology Review . 2011 년 2 월 22 일