Пишущая машинка, решающая машина

25 ноября 2008 года Корнелия Дин опубликовала в New York Times статью, которая прошла через международную сеть без особого отклика. Текст, озаглавленный «Солдат принимает приказы из Центра этических суждений», основан на интервью, которое д-р д-р д-р д-р. Рональд С. Аркина. Доктор Аркин описал свою работу там от имени армии США, которая состоит в разработке интеллектуальных боевых роботов, минных детекторов и различных «устройств слежения». Он также намекнул, что его самая большая мечта - построить робота, который будет функционировать независимо на поле битвы, то есть принимать решения без человеческих приказов. Он заявил, что работа над таким механизмом ведется уже несколько лет.

Фот Фот. Фото / PAP Идея может показаться сумасшедшей, но на самом деле она не нова и не удивительна для людей, которые уже много лет участвуют в подобных проектах. Идея создания систем, которые помогли бы принимать военно-стратегические решения и решать проблемы на поле боя, а также направить армию роботов на войну, глубоко укоренилась в послевоенной истории Запада. Период его особой популярности приходится на 1950-е и 1960-е годы, когда началась гонка вооружений времен холодной войны между странами НАТО и США, а также СССР и Варшавским договором. В то время кибернетика родилась в лабораториях американских университетов (греческий kybernán : «контроль», «контроль») или в науке о системах управления для сложных систем, основанной на обработке и передаче информации, полностью подчиненной мышлению, что более передовые части земного шара требуют эффективных Модели стратегического планирования и управления рисками, потому что они должны быть защищены любой ценой от враждебных вторжений. Как и в «Агонистах киборга», отмечает Фил Мировски, теория игр и операционные исследования (OR - операции исследования ), которые были ядром кибернетики, привели в 50-е, потому что они предложили заманчивую перспективу для создания всеобъемлющей теории организации послевоенного мира: синергия между динамично развивающимися науками, стабильная экономика и рациональное управление постоянно растущими человеческими ресурсами.

Казалось естественным, что перед лицом очевидного технического прогресса и в условиях непредсказуемой угрозы западный человек должен сотрудничать с созданными им союзниками - машинами. Спор был о том, какой характер будут иметь эти отношения. Первым важным проектом была концепция Алана Тьюринга: дуэт, состоящий из вычислительной машины и человека-сотрудника, для разработки оптимальных стратегических решений. Человек был из руководства, а машина - как «умный» партнер - из обработки данных и представления потенциальных решений. Однако, помимо четкого разделения ролей, навязанного Тьюрингом, идеи оказались совершенно другими. Одной из них была идея Дональда Маккея, исследователя психологии процессов обмена информацией, который первым ввел дарвинизм в кибернетику. В дополнение к инструментам постоянного ИЛИ его словарь описания машины включает такие слова, как «адаптация» или «целеустремленность». Маккей не согласен с тем, что человеческое тело состоит из подсистем, которые могут свободно воспроизводиться вне человеческого тела, и что действие и мышление человека (и, следовательно, машины) можно мыслить вне его естественного окружения. Поэтому он предложил сосредоточиться на анализе поведения, обеспечивающего выживание и целенаправленность действий. В контексте «холодной войны» сама концепция Маккея революционизировала понятие врага - незнакомца. Он хотел научить машину тому, что по понятным причинам человеку так и не удалось освоить: думать, что «это я». К сожалению, не было удовлетворительной практической реализации.

Спустя десятилетие предположение о создании совершенной боевой машины, которая напоминала бы многие функции человека, но в то же время превосходила интеллект, была пересмотрена из-за отсутствия ощутимых результатов. Последующие проекты антропоморфных роботов остановились в тот момент, когда машина вместо того, чтобы считать или выполнять запрограммированные задания, должна была начать учиться. В сложившейся ситуации американская армия стала медленно выводить субсидии из университетов, проводящих исследования «терминатора» по его просьбе. Однако, как только источник правительственного финансирования иссяк, все еще возникла молодая область интереса к американскому бизнесу, которая обычно предлагает решения, а не амбициозные решения и не требует, чтобы машина стала «лучшим человеком». Таким образом, семидесятые годы оказались периодом разработки определенного компонента интеллектуальных боевых машин, т.е. Системы поддержки принятия решений (DSS).

Благодаря лицензии GNU Free Documentation License:   http://www Благодаря лицензии GNU Free Documentation License:
http://www.gnu.org/licenses/fdl.html Проще говоря, эти системы основаны на подходе «если - то». Большинство из них состоят из трех основных частей: базы данных, которая является ресурсом системных знаний, логического механизма, который является его оперативным мозгом, и интерфейса, который позволяет вам общаться с пользователем. Механизм принятия решений DSS заключается в том, что хорошее решение - это только то, что является результатом хорошего процесса принятия решений. Другими словами, если механизм работает правильно, решение должно быть правильным. Благодаря такой четкой аргументации было признано, что DSS может быть полезен в отраслях, которые больше всего развивались после войны: финансы, система здравоохранения, а также администрация и налоги. Однако чем лучше сотрудники DSS находились в среде простых, рутинных действий, тем больше людей от них ожидали. У них больше не было пишущих машинок, как у их технологических предков, для помощи в делопроизводстве, но для управления ими.

В настоящее время среди систем принятия решений существует особая группа, наделенная значительным социальным доверием, которая носит благодарное название «экспертные системы». Эта группа настолько уникальна, что, по мнению многих специалистов, она стала наиболее «похожей» на человека. Экспертные системы, которые примерно сконструированы аналогично DSS, отличаются от них прежде всего тем, что - подобно человеку - они «активируют воображение», то есть «понимают», что они функционируют в сложной среде, о которой нет полного знания. Вместо того, чтобы учитывать огромное количество параметров, они небольшими шагами тестируют различные решения проблемы, которые они ранее воспринимали в аналогичных ситуациях. Чтобы достичь главной цели, они устанавливают промежуточные цели на основе тестов и только после их реализации начинают дальнейшие процедуры. Однако среди различных сценариев система - из-за своей гибкости - иногда не может распознать тот, который явно неверен, или, по крайней мере, так было бы для человека.

Несмотря на это, экспертные системы наводнили рынок услуг около двадцати лет. Их молчаливое, едва заметное присутствие прослеживается как в сфере медицинской помощи, так и в электронной коммерции и банковском деле. В течение примерно пяти лет (что примерно соответствует тому времени, когда доктор Аркин начал создавать «механического солдата»), также громче говорится о внедрении экспертных систем в мире бизнес-консалтинга, а также ... этических и психологических. Уже в конце девяностых годов было с энтузиазмом объявлено, что системы обучения экспертов могут не только руководить менеджерами в их деловых решениях, но и играть важную образовательную роль в будущем, обучая последующие поколения человеческих ресурсов. Однако, как подчеркивают противники DSS, персонал не совсем такой же, как ресурсы. Как может помочь машина, например, при принятии решения об отравлении пруда токсичными отходами или увольнении работника, который недостаточно хорошо выполнил свою работу? Такие предложения вызывают очевидное сопротивление. Еще в 1993 году Омар Э.М. Халил в книге «Искусственное принятие решений и искусственная этика: проблема управления» писал, что экспертная система не может ни принять этическое решение, ни даже помочь в его принятии, поскольку в ней отсутствуют эмоции и система. ценности, что полностью ухудшает его способность адекватно оценивать ситуацию. Также Даниэль Деннетт, когда-то являвшийся другом и сторонником киборгов, доказал, что экспертная система не может управлять как человек, потому что он не живет как человек. И все же предупреждения противников, кажется, зовут в пустыне. Остается фактом, что масса людей, которые уже работают с такими системами сегодня, вместе с ними при принятии решений с высокой степенью риска, предпочитают эту коллективную ответственность вместо того, чтобы отвечать собственной головой, и считает, что «решение системы» является более рациональным, чем то, которое они приняли бы сами.

Удивительно, что в такой новой области, которая представляет собой сектор информационных технологий, удалось выработать новую этическую фигуру профессионала (врача, менеджера, солдата и, в будущем, юриста), чья профессиональная компетентность определяет рамки сотрудничества с системой. Это не ситуация прямо из «Бегущего по лезвию клинка», где трогательный клон хочет быть человеком, а ситуация, когда «клон» учит человека, как быть человеком, заставляя его испытать Voight-Kampff à reours . Возможно, однако, не ирония здесь? В конце концов, человек все больше и больше готов подчиниться различным практикам, состоящим в том, чтобы воспитывать личность и фигуру тренера видимым образом, вытесняя фигуру психотерапевта. С другой стороны, «ласковый программист» из Стэнфордского университета информирует робота о известных механизмах психоанализа репрессии, которые можно проследить и визуализировать с помощью магнитного резонанса. В этой ситуации сложно сказать, кто кого должен учить.
Эта статья доступна на английском языке на Biweekly.pl.



Как может помочь машина, например, при принятии решения об отравлении пруда токсичными отходами или увольнении работника, который недостаточно хорошо выполнил свою работу?
Возможно, однако, не ирония здесь?
 
Карта