АКТУАЛЬНЫЕ ПРОБЛЕМЫ ОПТИМИЗАЦИИ УПРАВЛЕНИЯ В ТЕХНИЧЕСКИХ И ЭКОНОМИЧЕСКИХ СИСТЕМАХ 0000000000

Монография посвящена изложению наиболее важных вопросов управления техническими и экономическими системами. В работе под

256 5 4MB

Russian Pages [256] Year 2010

Report DMCA / Copyright

DOWNLOAD PDF FILE

Recommend Papers

АКТУАЛЬНЫЕ ПРОБЛЕМЫ ОПТИМИЗАЦИИ УПРАВЛЕНИЯ В ТЕХНИЧЕСКИХ И ЭКОНОМИЧЕСКИХ СИСТЕМАХ
 0000000000

  • 0 0 0
  • Like this paper and download? You can publish your own PDF file online for free in a few minutes! Sign Up
File loading please wait...
Citation preview

МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ УКРАИНЫ МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ АР КРЫМ РЕСПУБЛИКАНСКОЕ ВЫСШЕЕ УЧЕБНОЕ ЗАВЕДЕНИЕ

«КРЫМСКИЙ ГУМАНИТАРНЫЙ УНИВЕРСИТЕТ»

И.Ю. Гришин

АКТУАЛЬНЫЕ ПРОБЛЕМЫ ОПТИМИЗАЦИИ УПРАВЛЕНИЯ В ТЕХНИЧЕСКИХ И ЭКОНОМИЧЕСКИХ СИСТЕМАХ Монография

ЯЛТА ∙ 2009

УДК 517.977+330.46 ББК 32.817 Г85 Печатается по решению ученого совета РВУЗ «Крымский гуманитарный университет» от 27 июня 2007 г. (протокол № 11). Гришин И.Ю. Г85 Актуальные проблемы оптимизации управления в технических и экономических системах. – Ялта: РИО КГУ, 2009. – 252 стр. ISBN 000-000-000-0 Монография посвящена изложению наиболее важных вопросов управления техническими и экономическими системами. В работе подробно и доступно изложен математический аппарат, применяемый при разработке алгоритмов управления системами. Приведен оригинальный материал, включающий методы решения задач линейной оптимизации, факторного анализа экономических систем, управления энергетическими ресурсами измерительных информационных систем. Издание предназначено для научных работников и инженеров, занимающихся проблемами оптимального управления сложными системами, а также аспирантов и студентов соответствующих специальностей. ББК 32.817 Рецензенты: Гребенник И.В. – доктор технических наук, профессор кафедры системотехники Харьковского национального университета радиоэлектроники; Решетник В.М. – кандидат технических наук, начальник отдела Объединенного НИИ Вооруженных Сил Украины.

© Гришин И.Ю., 2009 © РВУЗ «Крымский гуманитарный университет», 2009

ВВЕДЕНИЕ В ходе реализации цели – восстановлении места Украины среди технологически развитых государств мира, одна из основных задач состоит во внедрении современной вычислительной техники в различные области управления хозяйством, в создании новых высокопроизводительных средств обработки информации и систем управления. Системы управления относятся к классу больших или сложных систем, характеризуемых следующими свойствами: функциональные связи в них описываются набором большого числа уравнений и неравенств (алгебраических, дифференциальных, линейных, нелинейных) с относительно большим числом непрерывных и дискретных переменных; невозможность в большинстве случаев применять классические методы оптимизации управления в таких системах. Основными проблемами теории оптимизации сложных систем управления оказываются проблемы разработки методов решения задач оптимизации большой размерности, оптимизации динамических систем, оптимизации в условиях неопределенности. Возможность решения той или иной задачи зависит от возможностей используемой вычислительной техники. При этом, несмотря на резкое повышение производительности современных компьютеров, требование повышения вычислительной эффективности к создаваемым алгоритмам остается в силе вследствие необходимости проводить вычисления в реальном масштабе времени (системы управления сложными объектами и системами). Следовательно, практический интерес к разработке новых методов, позволяющих ускорить решение указанных задач, не уменьшается. Настоящая монография является обобщением научных результатов, полученных автором в области создания эффективных алгоритмов решения задач линейного программирования, оптимизации динамических систем и обработки информации в них, а также применения этих методов в сложных системах управления. В работе рассмотренные основы теории сложных систем, прежде всего в аспекте ее приложения для создания оптимальных систем управления такими системами. В качестве конкретных примеров сложных систем выбраны: измерительная информационная система, которая является многопозиционным комплексом в составе радиолокационной или радионавигационной системы, а также экономическая система уровня большого предприятия (отрасли). Монография состоит из введения и четырех разделов. В пер3

вом разделе рассматриваются теоретические основы оптимизации управления техническими и экономическими системами. Сделан короткий обзор существующих подходов к управлению системами, рассмотрены основные термины и определения. Уделено внимание адаптации управления сложными системами. Во втором разделе приводится математический аппарат, который используется для синтеза систем управления сложными объектами. Особое внимание уделено новым методам, которые разработаны с участием автора. Метод главных граней решения задачи линейного программирования, который изложен в работе, после доведения его до коммерческого использования может стать реальной альтернативой симплекс-методу, который применяется в настоящее время для решения линейных оптимизационных задач. В третьем разделе рассмотрен оригинальный подход автора к оптимальному управлению энергетическими ресурсами и структурой многопозиционного радиолокационного комплекса, в основе которого лежит авторская модификация принципа максимума Понтрягина. В четвертом разделе представлены прикладные задачи оптимизации управления экономическими системами. Предложен корректный метод факторного анализа экономических систем. Необходимо отметить, что результаты, изложенные в пунктах 2.1.1, 2.1.2, а также в разделе 4, получены совместно с кандидатом технических наук Потаповым Г.Г. Работа рассчитана на специалистов, которые занимаются разработкой интеллектуальных методов управления сложными системами. Она может быть полезной для студентов специальностей «Математика», «Информатика», «Прикладная математика», «Информационные управляющие системы и технологии», а также аспирантов соответствующих специальностей.

4

1. ТЕОРЕТИЧЕСКИЕ ОСНОВЫ ОПТИМИЗАЦИИ УПРАВЛЕНИЯ ТЕХНИЧЕСКИМИ И ЭКОНОМИЧЕСКИМИ СИСТЕМАМИ 1.1. Системное представление объектов управления Управление современными техническими, экономическими, социальными, организационными системами предполагает, прежде всего, изучение таких систем методами системного анализа [1, 2]. Чаще всего управляемые системы являются сложными многоуровневыми системами, к которым классические методы управления оказываются неприменимы [3]. Поэтому единственно правильным эффективным подходом к управлению подобными системами является системный подход. Понятие системы и ее свойства При системном подходе к управлению объект управления представляется как система. Рассмотрим понятие системы как одно из методологических понятий, когда представление объекта управления как системы или отказ от такого представления определяется не функциями объекта, а зависит от задачи управления. Системой называется целостное образование, состоящее из взаимосвязанных и взаимодействующих компонентов (элементов, подсистем) и обладающее свойствами, которые не сводятся к свойствам компонентов, рассматриваемых в отдельности, и не выводятся только из них [4]. В приведенном определении зафиксировано основное свойство системы - ее целостность (или, иначе говоря, ее эмерджентность), единство, достигаемое через посредство определенных взаимосвязей, взаимодействий компонентов системы и проявлявшееся в возникновении новых свойств, которыми компоненты системы не обладают. Целостность системы означает, что из её свойств принципиально невозможно вывести сумму свойств составлявших ее компонентов, и, обратно, из свойств компонентов невозможно вывести свойства целого, т.е. системы. Таким образом, система обладаем интегративными свойствами, т.е. свойствами, присущими системе в целом, но не свойственными ни одному из ее компонентов. Компонент - любая часть системы, вступающая в определенные отношения с другими ее частями. Выделение тех или иных компонентов в системе определяется двумя соображениями; с одной стороны, объективно существующими свойствами системы, с 5

другой - целью управления. Компоненты системы могут быть двух типов - подсистемы и элементы системы. Элементом системы является минимальная для данной задачи часть системы с однозначно определенными свойствами, выполняющая в ней определенные функции (имеющая известное поведение) и не подлежащая дальнейшему членению в рамках решаемой задачи. Подсистемы же расчленяются дальше на свои компоненты: подсистемы более низкого уровня (ранга) и элементы. Обычно в качестве подсистем фигурируют более или менее самостоятельно функционирующие части системы, выделенные по определенным признакам и обладающие относительной самостоятельностью, определенной степенью свободы. Выделение подсистем как самостоятельных компонентов является методическим приемом, удобным для дальнейшего исследования. В результате использования этого приема устанавливается иерархия компонентов системы, т.е. многоступенчатая многоуровневая упорядоченность компонентов. При этом каждая подсистема может рассматриваться как система более низкого уровня, а сама исследуемая система может входить составной частью (компонентом) в некоторую систему более высокого уровня (надсистему), находящуюся во внешней среде по отношению к управляемой системе. Необходимость выделения в системе подсистем и элементов обусловлена не только естественным существованием в ней таких компонентов и потребностями раскрытия ее структуры, но также и тем, чтобы упростить управление сложными системами. Действительно, чтобы иметь полное представление о системе, необходимо знать состояние каждого из ее элементов и состояние связей между ними, т.е. состояние их входов и выходов. Однако это чрезвычайно сложная задача, и зачастую столь подробное изучение достаточно больших и сложных систем практически оказывается невозможным. Поэтому с целью сокращения количества рассматриваемых связей, элементы системы объединяются в группы по каким-либо признакам с таким расчетом, чтобы число подлежащих изучению связей между группами было минимальным. Этот процесс представляет собой выделение внутри системы отдельных сравнительно крупных ее компонентов-подсистем. Последними являются некоторые функционирующие в определенной мере самостоятельно в значительной степени изолированные группы элементов, имеющие 6

ограниченное количество связей с другими частями этой же системы или с внешней средой. Таким образом, система - это такой комплекс взаимосвязанных компонентов, множество свойств которого не является простым объединением множеств свойств входящих в него компонентов, а включает нечто большее - такие системные свойства, которые не присуши ни одному компоненту в отдельности и которые полностью или частично исчезают при исключении из комплекса какого-либо компонента. Основными положениями, на которых базируется понятие системы, являются: имеется множество взаимосвязанных компонентов (элементов, подсистем), составляющих отграниченный в окружающей их внешней среде и взаимодействующий с ней объект; это множество образует единое целое, изъятие какого-либо подмножества элементов нарушает свойство целостности; это единое целое имеет определенную цель или назначение, характерное для всей совокупности элементов, а не какой-нибудь комбинации из них; каждый элемент множества выполняет определенную функцию, способствующую достижению цели, выполнению общесистемных функций. Реальные системы существуют в пространстве и во времени и, следовательно, взаимодействуют с внешней средой и характеризуются теми или иными переменными во времени величинами [5]. Внешнюю среду образует окружение, с которым система взаимодействует. Например, в информационных радиолокационных системах взаимодействие со средой заключается в передаче и приеме электромагнитной энергии, которая используется для получения информации. Для радиотехнических систем [6] понятие среды обычно связывается с трассой распространения электромагнитных воли. Наряду с этим в понятие среды включаются и другие факторы естественного и искусственного происхождения, ограничивающие качество функционирования всех трактов прохождения сигналов, нарушающие информационное взаимодействие, искажающие или полностью подавляющие полезные сигналы. Система относительно внешней среды выступает и соответственно воспринимается как нечто единое и относительно самостоятельное, в этом и состоит ее целостность. Связь между системой и средой бывает настолько тесной, что 7

определение границ между ними становится очень сложным. С одной стороны, граница между системой и внешней средой определяется объективно существующей относительной самостоятельностью системы и внутренней взаимосвязанностью ее частей. Однако это объективно существующее разграничение системы и среды является нечетким, размытым. С другой стороны, граница определяется характером и целью управления, а также управленческими возможностями. Таким образом, отграничение системы означает выделение её и условное разграничение тем самым всей объективно существующей реальности на систему и внешнюю среду. Система, выделенная из окружающей ее внешней среды, является обособленной лишь условно, так как всегда имеет место взаимодействие системы с внешней средой. Среда представляет собой совокупность своеобразных элементов, не входящих в состав системы, но оказывавших на нее определенное воздействие. Одни из них являются пассивными естественными объектами (природная среда), ограничивающими действие системы, другие - активными антагонистическими элементами, целенаправленно противодействующими системе. Поэтому в общем случае среду следует рассматривать не только безразличной, но и антагонистической по отношению к управляемой системе. С понятием среды тесно связано понятие живучести реальной системы. Свойство системы активно (при помощи соответствующим образом организованной структуры и поведения) противостоять вредным воздействиям внешней среды и выполнять свои функции в заданных условиях такого воздействия называется живучестью системы. Благодаря этому свойству отказ какого-либо компонента или группы компонентов системы (например, отдельных модулей фазированной антенной решетки в РЛС) не приводит к отказу всей системы (РЛС в целом), а только к некоторому снижению эффективности ее функционирования. Высокая живучесть характерна для систем, имеющих иерархическую структуру и обладающих свойствами адаптации и самоорганизации [3]. Для повышения живучести технических систем вводят функциональную и структурную избыточность, дублируя компоненты или используя высоконадежные защитные элементы. Итак, любая система существует в среде и может рассматриваться как подсистема некоторой более общей системы. Приступая к проектированию подсистемы управления системой, прежде всего, необходимо выделить систему из окружающих ее систем, другими 8

словами, определить систему, установив ее состав и границы. Если управляемая система неправильно выделена из внешней среды, то может оказаться, что при управлении будут выработаны неправильные управленческие воздействия. Структура и функции системы Основную роль в формировании новых свойств системы, отличных от свойств её компонентов, играет структура системы. Структура системы - это её относительно устойчивая организация из отдельных компонентов с их взаимосвязями, которые обусловлены распределением функций и целей, выполняемых и достигаемых системой в целом и ее отдельными компонентами [5]. Структуру системы определяет совокупность её элементов и устойчивых связей между ними. Каждый компонент в составе системы выполняет определенные функции. Они определяются, с одной стороны, собственными свойствами компонента, а с другой - его структурными и коммуникативными связями. Между функциями компонентов имеются связи подчинения и согласования, в результате чего можно представить иерархическую структуру функций компонентов. На верхнем уровне этой иерархической структуры находятся общесистемные фикции, на выполнение которых направлены все функции компонентов система, Итак, иерархической структуре компонентов системы соответствует иерархическая структура их функций: выполнение функций более высокого уровня обеспечивается совокупностью функций предшествующего уровня, которые, в свою очередь, обеспечиваются функциями более низкого уровня и т.д. вплоть до элементарных функций, реализуемых отдельными элементами системы. Ключевую роль в описании изменений во времени, происходящих в системах, играет понятие состояния. Состоянием системы называют совокупность существенных свойств, которыми система обладает в каждый рассматриваемый момент времени. Система, состояние которой изменяется во времени под воздействием определенных причинно-следственных связей, называется динамической системой. Дня статической системы такое изменение не наблюдается. Процесс целенаправленного во времени изменения состояния системы называется ее функционированием. Функционирование системы - это проявление ее функций во времени. 9

Формализация общей схемы процесса функционирования системы основывается на следующих положениях: система функционирует во времени, взаимодействуя с внешней средой, и в каждый момент времени может находиться в одном из возможных состояний; на вход системы могут поступать входные воздействия; система способна выдавать выходные сигналы; состояние системы в данный момент времени определяется предыдущими состояниями и входными воздействиями, поступающими в данный момент времени и ранее; выходной сигнал в данный момент времени определяется состоянием системы и входными воздействиями, относящимися к данному и предшествующим моментам времени. Функционирование системы как единого целого обеспечивается связями между ее компонентами. Согласованное взаимодействие всех компонентов системы друг с другом в процессе ее функционирования обеспечивается путем управления системой. Управление в системах Управлением называется процесс целенаправленного воздействия на объект управления со стороны управляющего объекта для изменения его состояния в соответствии с изменяющейся обстановкой [4]. Управление выступает важнейшим системообразующим фактором: посредством его достигается цель, которая предопределяет характер функционирования системы, О динамических системах можно сказать, что управление в них - это использование причинно-следственных отношений для того, чтобы процесс изменения состояния системы и процесс на ее выходе принимали желаемые значения на заданном отрезке времени. Влиять на процессы в управляемой системе можно, изменяя ее входные воздействия. Среди процессов на входе системы обычно выделяют управления и неконтролируемые воздействия среды. Последние воздействия часто препятствуют достижению цели функционирования системы. Они называются возмущениями. Для управления системой необходима информация о состоянии внешней среда и компонентов системы, о выполнении компонентами своих функций. Управляющее воздействие (управление) формируется в результате соответствующей переработки информации, путем сравнения информации о состоянии внешней среды и компонентов системы с требуемым или желаемым состоянием си10

стемы во внешней среде. По рассогласованию вырабатывается управление по приведению системы в требуемое состояние. Как следует из определения управления, в структуре системы, в которой имеет место процесс управление, необходимо различать управляемую и управляющую подсистемы. Управляющая подсистема в случаях, когда в явном виде осуществляется определение состояния по данным измерений, может быть расчленена на подсистему наблюдения, решающую последнюю задачу, и собственно подсистему управления, формирующую управляющее воздействие. Если от управляемой подсистемы систематически поступает информация к управляющей подсистеме о результатах управления, то говорят, что в системе существует обратная связь, через которую замыкается контур управления. В зависимости от характера, направленности я содержания потоков управленческой информации в системах выделяют различные виды управления: программное управление, убавление с обратной связью, управление по возмущению, управление путём адаптации и т.д. Особенности управления сложными системами Системы в зависимости от их структуры и пространственновременных свойств могут быть простыми, сложными и большими [1]. Простыми обычно считают системы, не имеющие разветвлённой структуры, состоящие из небольшого количества взаимосвязанных и взаимодействующих элементов. Такие системы служат для выполнения простейших функций. Отличительной особенностью простых систем является детерминированность номенклатуры и числа элементов и связей как внутри системы, так и с внешней средой. Сложные системы характеризуются большим числом элементов и внутренних связей, их неоднородностью и разнокачественностью, структурным разнообразием, выполняют сложную функцию или ряд функций. Компоненты сложной системы могут рассматриваться как подсистемы, каждая из которых, в свою очередь, может считаться состоящей из еще более простых подсистем и т.д. до тех пор, пока не будут получены элементы, т.е. такие компоненты, которые ни подлежат расчленению в условиях данной задачи. Иерархическое построение - характерный признак сложных систем. При этом уровни иерархии могут быть как однородными, так и неоднородными, Для сложных систем присущи такие факторы, как не11

возможность предсказания их поведения без специального анализа, вычислений и т.п., т.е. слабопредсказуемость и скрытность их свойств, поведения; многосвязность, разнообразие состояний, случайная природа свойств и т.д. Сложную систему в общем случае можно подразделить на следующие основные функциональные подсистемы: решающую, которая принимает глобальное решение о взаимодействии с внешней средой и распределяет локальные задания всем другим подсистемам для его реализации; информационную, обеспечивающую сбор, переработку и передачу информации, необходимой дня принятия глобального решения и выполнения локальных заданий; управляющую, предназначенную для реализации глобального решения; гомеостазную, поддерживающую динамическое равновесие внутри среды и регулирующую потоки и ресурсы энергии и вещества в подсистемах, необходимые для выполнения их локальных заданий; адаптивную, накапливающую опыт в процессе обучения для улучшения структуры и функций системы. Для многих сложных технических систем характерной особенностью является наличие у них специального программного обеспечения (больших комплексов программно-реализованных алгоритмов), предназначенного для обработки и преобразования потоков информации, выработки решения и осуществления функций управления. Специальное программно-математическое обеспечение представляет собой относительно самостоятельный функциональный компонент сложной системы. Наиболее характерные особенности сложных технических систем - это наличие большого количества взаимосвязанных и взаимодействующих между собой разнородных элементов, объединенных в систему для достижения единой цели; сложные взаимопереплетающиеся связи; развитая система программного обеспечения, предназначенная для обработки огромных информационных потоков. Достижение системой единой цели в соответствии с ее назначением обеспечиваемся решением совокупных конкретных задач отдельными элементами системы и ее подсистемами. Естественно считать, что в сложной системе все ее подсистемы сами являются сложными системами. Сложность системы - понятие многогранное, поэтому в раз12

личных проблемах проявляются различные аспекты сложности. Обычно выделяют структурою сложность, динамическую сложность, вычислительную сложность и т.д. Сложность - понятие качественное, нечеткое, не имеющее строгого определения и общепринятого способа количественного оценивания. Обычно применяют словесное (или вербальное) описание сложности. Одно из наиболее общих свойств большой система заключается в невозможности ее восприятия (обозримости) некоторым наблюдателем. Большой системой называют систему, ненаблюдаемую одновременно с позиций одного наблюдателя во времени или в пространстве, для которой существенен пространственный фактор, число подсистем которой очень велико, а состав разнороден. Система может быть и большой, и сложной. Сложные системы объединяют более обширную группу систем, чем большие системы, т.е. последние являются подклассом сложных систем. Основополагающим при анализе и синтезе больших и сложных систем являются понятия декомпозиции и агрегирования. Декомпозиция определяет подход к исследованию систем, приводящий к упрощенному описанию. В буквальном смысле декомпозиция представляет собой разъединение системы на части с последовательным самостоятельным рассмотрением отдельных частей. Очевидно, что декомпозиция представляет собой понятие, связанное с моделью системы, так как сама система вследствие своей целостности не может быть расчленена без нарушения ее свойств. На уровне моделирования разрозненные связи заменяются соответствующими эквивалентами, либо модель системы строится так, что разложение на отдельные части при этом оказываемся естественным. Применительно к большим и сложным системам декомпозиция является мощным и практически единственным инструментом для их исследования. Агрегирование систем является понятием, противоположным декомпозиции. В процессе анализа и особенно синтеза возникает необходимость объединения элементов системы с целью рассмотрения системы с более общих позиций. Декомпозиция и агрегирование представляют собой две противоположные стороны подхода к рассмотрению больших и сложных систем, проявляющиеся в диалектическом единстве. Применив изложенные подходы к анализу сложных систем, может быть построена модель такой системы, которая, после вери13

фикации и коррекции, используется в качестве одного из важных элементов подсистемы управления. При построении алгоритмов оптимального управления системами требуется решить ряд задач [7], связанных с выбором показателя качества управления, выбором (или разработкой) метода оптимизации, оценкой его вычислительных затрат, упрощением (при необходимости), поскольку управление должно осуществляться в реальном масштабе времени, а цикл управления техническими системами обычно ограничен долями или единицами секунд. Таким образом, современные технические, экономические, социальные, организационные системы чаще всего оказываются сложными, к которым классические методы управления неприменимы. Наиболее эффективным средством их изучения и управления ими является системный подход. Для разработки эффективной системы управления должна быть создана адекватная модель управляемой системы. Наиболее сложными проблемами, решаемыми при синтезе алгоритмов управления, является выбор показателя качества управления и разработка достаточно простого метода оптимизации для обеспечения эффективного управления системой в реальном масштабе времени. 1.2. Качество и эффективность функционирования системы Основные понятия теории эффективности Исторически понятие эффективности возникло в военном деле в рамках исследования операций и применялось для оценивания оптимальности (целесообразности) операции, выполняемой некоторой системой. В настоящее время к объектам изучения теории эффективности относят целенаправленные действия и целенаправленные системы, а в качестве предмета исследования выделяют закономерности оптимальной их организации. Фундаментальными понятиями, используемыми теорией эффективности, наряду с понятиями эффекта и эффективности, являются понятия цели, операции и системы. Под целью понимается желаемый результат деятельности, достижимый в пределах некоторого интервала времени и имеющий определенную полезность. Понятие цели чаше всего плохо формализуемо и формулируется в виде необходимости достижения предпочтительного состояния некоторой системы или внешней среды. 14

Цель считается достигнутой, если получен определенный, соответствующий поставленной цели результат. Достижение цели состоит из решения некоторой совокупности задач, позволяющих получить результат, соответствующий поставленной цели. Задача - промежуточный этап достижения цели, направленный на получение конкретного результата за некоторый заданный промежуток времени. Результат выполнения задачи характеризуется набором количественных параметров этого результата. Требуемый результат получают путем преобразования некоторых ресурсов, т.е. за счет совокупности действий, в процессе выполнения которых ресурсы преобразуются в требуемый результат. Данная совокупность действий называется операцией. Поэтому операция может быть представлена как упорядоченная совокупность связанных взаимными отношениями действий, работ, процедур, направленных на достижение единой цели. Под работой понимается совокупность взаимосвязанных действий, направленных на решение задачи. Причем результат решения задачи носит материальный характер, связанный с преобразованием вещества, энергии и т.п. Каждую работу теризовать тройкой

x i , можно охарак-

xi  Эi , Ci , τi  ,

где i - номер работы;

Эi   Эi1 , Эi 2 ,

Ci   Ci1 , Ci 2 ,

 - вектор результатов работы;  - вектор ресурсов, необходимых для выполне-

ния работы;

τi -

время, выделенное на выполнение работы.

В теории исследования операций совокупность технических устройств я лиц, которые стремятся в данной операции к достижению некоторой цели, называют еще оперирующей стороной. В операции могут участвовать одна или насколько оперирующих сторон, преследующих различные, несовпадающие цели. Несовпадение целей оперирующих сторон создает конфликтную ситуацию. Наряду с оперирующими сторонами в операции участвует внешняя среда (совокупность всех внешних факторов, влияющих на исход операции), поведение которой не подчинено стремлению к достижению целей операции. Объекты внешней среды могут оказывать воздействие не ресурсы, систему, участвующую в операции, 15

или результат ее функционирования, однако непосредственно в процессе преобразования ресурсов в результат участия не принимают, т.е. их исключение не нарушает хода данного процесса. К внешней среде относятся системы более высокого уровня по сравнению с рассматриваемой системой и также природа. Учитывая рассмотренное выше, операцию можно представить структурной схемой, изображенной на рис. 1.1. Процесс преобразования ресурсов в результат

Ресурсы

Результат

Внешняя среда

СИСТЕМА Рис. 1.1. Структурная схема операции Так как управление операцией предполагает не только управление системой, осуществляющей операцию, но и подразумевает рациональное распределение ресурсов, то комплекс «ресурсысистема» целесообразно объединить в единую систему. Этот комплекс называют операционной системой. Показатели и критерии качества функционирования системы Для оценивания качества целенаправленных процессов управления функционированием различных систем и сравнения их между собой используют показатели и критерии качества и эффективности. Показатели качества и эффективности являются количественными характеристиками, а критерии оценивания качества и эффективности формулируют условия, которым должны удовлетворять значения этих показателей и которые отражают желаемый уровень качества функционирования системы и эффективности выполняемой ею операции. Поскольку эффективность - это комплексное операционное свойство целенаправленного процесса управления функционированием системы, а выполняемая ею операция отличается от всех других процессов наличием цели, то мера (показатель) эффективности 16

должна характеризовать степень достижения цели операции. Поэтому для правильного выбора показателя эффективности необходимо четкое формулирование цели операции. При выборе показателей эффективности наряду с требованием их согласованности с целями операций руководствуются и рядом других требований, которые в общем случае не всегда могут быть одновременно выполнены из-за возникающей противоречивости. Эти требования сводятся к следующему. Показатель эффективности должен объективно отражать степень соответствия операции своему назначению и достаточно полно характеризовать её как единый целенаправленный процесс. Он должен учитывать множество существенных свойств операции и отражать не только общие, но и присущие ей частные стороны. Особо необходимо выделять целевой аспект показателя эффективности, его ориентацию на конечный результат применения системы, выполняющей операцию. Промежуточные итоги хотя и важны, но они не должны быть определяющими. Показатель должен быть представительным, т.е. позволять оценивать эффективность решения основной задачи системы, а не второстепенных ее задач. При выборе показателей эффективности обычно стремятся, чтобы они обладали, кроме названных, еще следующими свойствами [8]: полнотой объема содержащейся в них информации; правильным учетом основного назначения системы и стохастичности условий ее функционирования; реализуемостью (вычислимостью); однозначностью количественного выражения эффективности; устойчивостью; чувствительностью к управляющим и определяющим их значения факторам; эффективностью в статистическом смысле, т.е. быстрой сходимостью оценок показателей к их истинным значениям при увеличении объема используемых для получения оценок этих значений статистических данных; простотой использования и определения без больших затрат средств и времени; наглядностью и ясным физическим смыслом; конструктивностью; необходимой гибкостью и универсальностью. Значения каждого показателя эффективности определяются множеством факторов. Как числовая характеристика показатель эффективности должен являться функцией этих факторов. Основные факторы, влияющие на эффективность операции, принято делить на две группы факторов. Первая группа включает в себя параметры системы и реализуемой ею операции, а вторая - учитывает условия проведения операции, т.е. условия функционирования системы (природные, физические условия: температура, влажность, 17

давление, радиация и т.п.) и условия ее применения (ситуационные и организационно-технические условия). Чем больше факторов входит в показатель, тем он полнее. Однако при выборе функциональной связи показателя эффективности с параметрами операции и факторами, учитывающими условия ее проведения, необходимо учитывать неодинаковую значимость отдельных свойств системы и условий проведения операции. Показатель эффективности зависит от структуры системы, значений ее параметров, характера взаимодействия с внешней средой. Он определяется целенаправленным процессом функционирования система, т.е. является функционалом от этого процесса. Сложные системы функционируют, как правило, в условиях действия большого числа случайных факторов. Поэтому и результаты применения сложной системы неизбежно носят случайный характер. Для того чтобы оценка эффективности не зависела от случайного сочетания действующих факторов, в качестве показателей эффективности выбирают вероятности наступления соответствующих характерных событий (например, вероятность безаварийности полетов авиации для системы управления воздушным движением) или средние значения соответствующих случайных величин (например, математическое ожидание предотвращенного ущерба для систем обороны). Если полезный эффект применения системы проявляется в форме наступления некоторого случайного событие, то в качестве показателя эффективности используется вероятность этого события, т.е. вероятность выполнения поставленной задачи. Если же результат применения системы описывается случайной величиной, то в качестве показателя используется математическое ожидание возможного результата или какая-то другая числовая характеристика этой величины. Если цель применения системы - достижение результата не менее некоторой вполне определенной величины, то в качестве показателя эффективности выбирают вероятность достижения не менее заданного результата. Таким образом, показателя, используемые для оценивания качества операции, можно подразделить на два класса: показатели результатов (эффектов) операции (показатели результативности целенаправленного процесса функционирования системы); показатели эффективности операции, отражающие уровень достижения ее цели; 18

В соответствии с последним различают два уровня оценивание качества операции: оценивание качества результатов операции; оценивание качества самой операции, называемого ее эффективностью. Из этих двух уровней последний является доминирующим (главным), поскольку операция может считаться качественной тогда и только тогда, когда требуемыми качествами обладают все без исключения ее результаты. Собственно результатом операции является получаемый целевой эффект (ее основной эффект). Однако с формальной точки зрения соответствующий этому эффекту расход ресурсов также следует рассматривать как результат операции (или как ее побочный эффект). Таким образом, свойства системы и результатов операции, определяющие их качество, целесообразно разделить на две группа: целевые (функциональные); обеспечивающие (эксплуатационно-технические). В ходе операции на достижение её цели расходуются ресурсы и время. Поэтому качество операции не может быть полно охарактеризовано ни одним из ее операционных свойств в отдельности. Для комплексного (многокомпонентного) исследования эффективности операции показатель качества её результатов должен включать в себя три группы компонентов, характеризующих соответственно возможные целевые эффекты (результативность операции), затраты ресурсов (ресурсоемкость операции) и затраты времени (оперативность операции). Пусть E - векторный показатель качества результатов операции, Э   Э1 , , Эn1  - вектор результатов (целевых, позитивных эффектов) операции, C   C1 ,

, Cn 2  - вектор затрат ресурсов

(побочных, негативных эффектов) на получение этих результатов, τ   i , , n3  - вектор временных затрат (побочных, негативных эффектов) на достижение целевых эффектов. Тогда показатель качества результатов операции может быть представлен как n мерный вектор ( n  n1  n2



E  Э,C, τ   Э1 ,

 n3 ): , Эn1 , C1 ,

, Cn2 ,1 ,



, n3 .

Путем свертывания показателей частных эффектов внутри 19

групп n -мерный вектор частных показателей результатов (эффектов) операции может быть сведен к трехкомпонентному вектору. Например, это может быть сделано путем введения обобщенных показателей: n1

n2

i 1

j 1

Э    i Эi ; C    j C j ;  max{ 1 , где

i

и

j

, n3 },

- весовые коэффициенты.

В последнем случае показатель качества результатов операции

принимает вид E   Э, C ,  . Применяя свертывание частных показателей, необходимо учитывать, что оно корректно лить внутри групп. При строгом толковании смысла показателя E его компоненты следует рассматривать как количественные характеристики лишь результатов операции. В дальнейшем будем полагать, что однозначная взаимосвязь между количеством результата и его качеством имеется. Тогда трактовка показателя E как показателя качества результатов операции будет правомерной. Итак, при выполнении операции достигается комплекс эффектов (основных, целевых - Э и побочных - C , ), показателем которого является трехкомпонентный вектор E   Э, C ,  . Представление показателя качества результата операции в виде вектора

 Э, C,  является каноническим.

Критерий пригодности операции для использования по назначению, оценивающий ее качество, записывается следующим образом:

E  Eд  ,

(1.1)

где Eд   Эд , Сд , д  - вектор допустимых результатов операции, при которых обеспечивается достижение её цели, Eд  - область допустимых значений вектора E . Достижения цели операции формально означает выполнение условия (1.1). В общем случае результат операции зависит от характеристик системы, выполняющей операцию, и факторов характеризующих условия функционирования системы, т.е. 20

E  E  a, b  , где

a - вектор характеристик системы; b - вектор факторов характеризующих условия функционирова-

ния системы. Допустимые значения



ми применения системы, т.е.

вектора E определяются условия-

Eд  Eд  b ,

где b - вектор факторов, характеризующих условия применения системы. Условия функционирования и применения системы в совокупности образуют условия проведения операции, описываемые вектором b  b b . Некоторые компоненты у векторов b и b могут быть одинаковыми. Поэтому размерность вектора b условий проведения операции может быть меньше суммы размерностей векторов b и b . В общем случае векторы a , b и b имеют случайные и детерминированные компоненты. Наличие случайных компонентов является типичной ситуацией для сложных систем, поскольку на их характеристики и параметры, а также на условия функционирования и применения воздействует целый ряд случайных факторов. Случайность отдельных или всех компонентов векторов a , b и b обусловливает случайность и вектора E результатов операции,

Eд  его допустимых значений. Следовательно, выполнение условия E  Eд  , означавшего достижение цели опеи области

рации, есть случайное событие, по которому судить об эффективности операции нельзя. Показатель эффективности должен характеризовать эффективность операции, а не отдельной её реализации. Поэтому в качестве показателя эффективности операции должна

фигурировать вероятность события E  Eд  - вероятность достижения цели операции

pд.ц.  p  E Eд  .

Вероятность

pд.ц . характеризует степень соответствия результатов операции E (её целевого и побочных аффектов) предъ21

явленным к ним требованиям

Eд  , т.е. целям операции, исчер-

пывающим образом. Эта вероятность является наиболее информативным комплексным показателем эффективности операции, поскольку она не только характеризует операцию с учетов соотношения основного целевого и побочных эффектов, но и устанавливаем степень достижения цели операции. Из этого следует, что вероятность достижения цели операции зависит от векторов a и b , т.е.

pд.ц.  pд.ц.  a, b  .

Для ее вычисления необходимо и достаточно знать законы распределения случайного вектора E и случайной области Eд  . Следует отметить, что использование вероятности достижения цели операции в качестве меры ее эффективности иногда связано с определенными трудностями, вызванными в основном отсутствием информации о законах распределения вектора E и области Eд  . Поэтому иногда в качестве показателей эффективности вместо вероятности pд.ц . используют числовые характеристики случайного вектора E , причем наиболее распространенной характеристикой является математическое ожидание этого вектора. Оценивание эффективности операции реализуется в два этапа; На первом этапе: определяется показатель качества результатов операции - вектор E показателей Э, C , ее частных результатов (эффектов); определяются требования к качеству результатов операции область

Eд  допустимых

значений

Эд , Cд , д

показателей

Э, C , ее результатов; формулируется критерий оценивания качества результатов E  Eд  . На втором этапе: вычисляется значение показателя эффективности операции вероятность достижения ее цели pд.ц . ; задаются требования к эффективности операции - требуемое тр (минимально допустимое) или оптимальное значение ( pд.ц . или 22

pдопт .ц . ) вероятности

pд.ц . достижения цели операции;

реализуется один из критериев оценивания эффективности операции: критерий пригодности pд.ц .  pд.ц . ; критерий оптимальтр

ности pд.ц.  pд.ц. . опт

Рассмотренная схема дает прямое оценивание эффективности операции. При исследовании эффективности операции по такой схеме автоматически решается проблема «эффективностьстоимость». В условиях, когда прямое оценивание невозможно, реализуется косвенное оценивание эффективности операции по показателям ее результатов, которое, конечно, уступает прямому по информативности, а следовательно, и по объективности (достоверности). Таким образом, необходимо различать показатели эффектов операции и показатели ее эффективности, а также два уровня оценивания качества операции: качества ее результатов как конечных итогов и ее эффективности. Итак, наиболее информативным комплексным показателем эффективности операции является вероятность pд.ц . достижения цели операции. Вероятность pд.ц . по существу является одновременно и относительным, и абсолютным показателем эффективности операции. Действительно, с одной стороны, вероятность pд.ц . характеризует эффективность операции с учетом соотношения целевого (основного) и побочных эффектов. С другой стороны, для фиксированного комплекса условий вероятность случайного события E  Eд 

есть абсолютная характеристика степени объективной возможности его реализации (появления, осуществления). Если говорить строго, то, конечно, значение вероятности относительно, но эта относительность рассматривается по сравнению с единицей, т.е. с абсолютной мерой степени объективной возможности достоверного события. Следовательно, дай объективного оценивания эффективности операции, характеризующей степень достижения ее цели, достаточно знать вероятность осуществления события E  Eд  , т.е. вероятность pд.ц . Наряду с показателем pд.ц . широкое распространение при ис23

следовании операций получили и другие показателя, называемые целевыми или критериальными функциями. Примерами целевых функций могут служить следующие зависимости: n

n

i 1

i 1

F1  Э; F2  СЭ ; F3   i xi ; F4   i fi  xi  , где, например, при

n  3 x1  Э, x2  C, x3   .

Все эти функции, имея те или иные преимущества одна перед другой, обладают рядом существенных недостатков, Во-первых, в этих функциях не находит отражения цель операции. Во-вторых, использование этих функций, имеющих искусственную размерность (или не имеющих ее), затушевывает физическую сущность задачи и затрудняет анализ и осмысливание результатов. Втретьих, одни из этих функций не учитывают затрат времени, а другие вообще не учитывают расхода ресурсов, что при комплексном исследовании эффективности недопустимо в принципе. Вчетвертых, для ряда таких функций к отмеченным недостаткам добавляется еще их детерминированность, плохо соответствующая многим реальным практическим задачам. Использование различных функций от компонентов вектора E результатов операции было вызвано следующими соображениями. Любая операция характеризуется множеством эффектов (как положительных, так и отрицательных), часть которых находится в противоречии с целью операции. Поэтому оценить объективно результат операции одним числовым показателем не представляется возможным. В то же время совокупность противоречивых показателей частных результатов операции также не позволяет однозначно оценивать ее эффективность. Стремление к комплексному анализу эффективности операции приводит поэтому к использованию различных сочетаний компонентов вектора ее результатов в виде числовых функций от этих компонентов. Из всего сказанного следует вывод о необходимости различать показатели эффективности и показатели эффектов (результатов) операции. Последние характеризуют операцию лишь косвенно, т.е. без учета ее цели. Первые же показатели являются прямыми, поскольку они характеризуют непосредственно степень достижения цели операции. Из рассмотренного выше вытекает схема классификации показателей качества результатов и эффективности операции и критериев их оценивания, которая представлена на рис 1.2. 24

Признаки классификации Иерархия показателей и критериев эффективности

Размерность показателя качества результатов операции

Собственные (внутренние)

Векторные

Несобственные (внешние)

частные обобщенные

Скалярные

Классификация показателей эффективности операции

По целенаправленности результатов (эффектов)

Полнота и конкретность оценивания эффективности Прямые

Косвенные

Классификация критериев оценивания эффективности операции

По ведущим компонентам показателя результатов

По целям исследования операции

Целевые эффекты (результаты)

Показатели и критерии экономической эффективности

Критерии пригодности

Побочные эффекты (результаты)

Показатели и критерии функциональной эффективности

Критерии оптимальности

Показатели и критерии оперативности

Критерии превосходства

Расход ресурсов (затраты на операцию) Расход времени на достижение цели

Рис. 1.2. Классификация показателей качества результатов и эффективности операции и критериев их оценивания 25

Представив основные подходы к оцениванию и критериям качества операции, которые определяют критерии качества управления системами, рассмотрим особенности управления многоуровневыми иерархическими системами, поскольку именно этот класс систем наиболее адекватно отражает реальные процессы, происходящие в реальных технических, экономических и социальных системах. 1.3. Особенности управления многоуровневыми иерархическими системами Возникновение иерархической структуры управления было обусловлено все возрастающей сложностью технологии управляемых объектов, создающей большие трудности для централизованного управления. Поэтому появилась необходимость разделения всего процесса принятия решений на такое число уровней, чтобы решение задачи оптимизации на каждом из них было не сложным. Но с возникновением многоуровневых иерархических систем управления появилась и новая задача согласования и координации решений, принимаемых на всех уровнях управления. Общая схема координации в двухуровневой системе сводится к следующему. Элементы передают в центр набор вариантов своей работы. Каждый вариант представляет собой векторный показатель элемента, допустимый с точки зрения его локальных ограничений. На основании получаемых от элементов вариантов центр формирует план, оптимальный с точки зрения всей системы [9]. Этот план передается элементам и, далее, детализируется ими. Понятие многоуровневой иерархической системы невозможно определить одной короткой формулировкой. Поэтому целесообразно привести несколько наиболее важных характеристик, присущих всем иерархическим системам. С точки зрения организации управления в системах к таким характеристикам, в первую очередь, относятся следующие [10]: последовательное вертикальное расположение подсистем, составляющих управляемую систему (вертикальная декомпозиция); приоритет действий или право вмешательства подсистем верхнего уровня; зависимость действий подсистем верхнего уровня от фактического исполнения нижними уровнями своих функций. Рассмотрим каждую из характеристик по26

дробнее. Вертикальная соподчиненность Любая иерархия состоит из вертикально соподчиненных подсистем, т.е. вся система представляет собой семейство взаимодействующих подсистем (рис. 1.3). Здесь под системой или подсистемой понимается осуществление процесса преобразования входных данных в выходные. Это преобразование может быть динамическим, протекающим в реальном масштабе времени процессом с заранее заданным детерминированным алгоритмом, либо представлять собой процедуру решения проблемы. В последнем случае декомпозиция носит концептуальный характер, т.е. имеется совокупность подлежащих выполнению операций, которые могут быть выполнены в разное время и в разной последовательности (системы с недерминированным алгоритмом). Следует отметить, что входы и выходы могут быть распределены по всем уровням, однако чаще всего обмен со средой происходит на более низком (или самом низком) уровне. Рассматривая вертикальное расположение, можно говорить об элементах верхнего и нижнего уровней с вполне очевидной интерпретацией этих терминов. Отметим также, что взаимодействие между уровнями не обязательно происходит только между каждыми двумя близлежащими уровнями, как это для простоты показано на рис. 1.3. Однако это в определенной степени зависит от того, что именно рассматривается в качестве подсистемы на данном уровне. Право вмешательства На деятельность подсистемы любого уровня непосредственное и явно выраженное воздействие оказывают уровни, расположенные выше, чаще всего ближайший высший уровень. Такое воздействие для нижерасположенных уровней носит обязательный характер, в нем выражается приоритет действий и целей более высоких уровней. Такое воздействие на более высокие уровни называют вмешательством. В системах с детерминированным алгоритмом выполнения вмешательство проявляется в виде изменения параметров подсистем нижерасположенного уровня. В системах с недетерминированным алгоритмом выполнения приоритет действий задает последовательный порядок получения решений на разных уровнях. Обычно проблема на нижележащем уровне не определяется в окончательном виде до тех пор, пока не решена проблема на нижележащем уровне. Для подчеркивания значения приоритета элементы верхнего и нижнего уровней называют соответственно выше27

стоящими и нижестоящими.

Рис. 1.3. Взаимодействие между уровнями иерархии Взаимозависимость действий Хотя вмешательство направлено сверху вниз, в виде отдачи приказов или команд, успешность действия системы в целом и фактически элементов любого уровня зависит от поведения всех элементов системы. Так как само понятие приоритета подразумевает, что вмешательство предшествует действиям более низких уровней, успешность работы верхнего уровня зависит не только от осуществляемых им действий, но и от соответствующих реакций нижних уровней, точнее от их суммарного эффекта. Поэтому можно считать, что качество работы всей системы обеспечивается обратной связью, т.е. реакциями на вмешательство, информация о которых направляется сверху вниз (рис. 1.3). 28

Основные принципы управления многоуровневыми иерархическими системами В настоящее время вопросам принятия решений в сложных иерархических системах уделяется большое внимание, как в нашей стране, так и за рубежом [10-23]. К достоинствам иерархической структуры автоматизированного управления, в которой на нижнем уровне имеется большое количество несложных задач, а на вышестоящих уровнях - небольшое число сложных задач, следует отнести (согласно зарубежным данным) снижение общей стоимости обработки информации в системе, повышение пропускной способности хост-машины в сети ЭВМ и устойчивость к отказам. Критические для системы функции продолжают выполняться локальными системами управления при выходе из строя хост-машины или линий связи. Теоретические вопросы построения систем многосвязной стабилизации параметров в замкнутых локальных системах управления, полученных в результате декомпозиции исходной задачи оптимизации рассматриваются в работах [24-26]. Рассматриваемые системы имеют смешанную замкнуто-разомкнутую структуру и сочетают управления по отклонению и по возмущению. При этом динамическая стабилизация параметров производится в основном замкнутым локальным контуром, а коррекция по низкочастотным (НЧ) возмущениям осуществляется системой верхнего уровня. Разделение решения общей оптимизационной задачи между двумя взаимосвязанными уровнями может чаще всего производиться на основе гипотезы малости влияния режимных величин на условия материального баланса, позволяющей воспользоваться формальными схемами теории возмущений [27] (малость нелинейных слагаемых в моделях). Общая задача оптимального управления иерархическими системами обычно ставится как статическая оптимизационная задача, т.к. рассматривается задача функционирования производства на достаточно больших интервалов времени (сутки и более), во время которых динамикой протекания процессов можно пренебречь [27]. Высокочастотные возмущения материальных потоков, как предполагается в этом случае, отрабатываются системами автоматической стабилизации работы отдельных установок и диспетчерскими службами нижнего уровня. Решение общей задачи управления всем технологическим комплексом в целом на ЭВМ в реальном 29

масштабе времени для нахождения режимов работы всех установок, входящих в производство, невозможно из-за нелинейности моделей и огромной размерности задачи (до десятков тысяч переменных) [27]. Решение отдельных локальных задач оптимизации для ряда подсистем и элементов без решения общей задачи оказывается, чаще всего мало или совершенно неэффективным, т.к. не определены переменные, согласующие режимы работ подсистем между собой, и не скоординированы критерии эффективности. Существует два вида алгоритмов координации: итеративные и безытеративные [28]. В существующих в настоящее время итеративных процедурах (алгоритмы Данцига-Вульфа, алгоритм Корнаи-Липтака, методы, основанные на введение функции Лагранжа или ее различных модификаций, алгоритмы оптимизации сложных химико-технологических схем Балакирева В.С., Володина В.М., Цирлина А.М., обобщающая схема итеративных алгоритмов Алиева Р.А., Либерзона М.И.) оптимальное решение определяется в ходе итеративного обмена информацией между центром и элементами, а на каждом шаге итеративного процесса решаются локальнооптимальные задачи элементов и координирующая задача центра. При внедрении итеративных процедур согласования решений в многоуровневых иерархических системах возникают непреодолимые преграды из-за больших межуровневых информационных потоков и, соответственно, больших затрат времени на обмен информацией [27, 29]. Альтернативой этому подходу служит использование в вышестоящих подсистемах детальных моделей нижестоящих подсистем, однако при этом не используются преимущества децентрализованного управления. В безытеративных алгоритмах принятие решения осуществляется в результате однократного обмена информацией между уровнями. В этом случае координирующая подсистема может иметь для детерминированного варианта детальные модели подсистем и точно знать их целевые функции, однако такой подход приводит к потере преимуществ децентрализованного управления и очень сложной задаче для вышестоящего уровня. В основном безытерационные алгоритмы сводятся к построению множества эффективных решений [28]. Для организационных иерархических систем в работах [28,29] приведены алгоритмы координации, основанные на нечеткой логике и композиционном правиле Заде. В работах [30, 31 была предложена безытеративная процедура принятия решений в многоуровневой иерархической системе на основе теории нечетких множеств и нечеткого динамического программирования Беллмана-Заде, а также численный 30

матричный метод для случая выпуклых функций принадлежности для подсистем. Соответственно недостатком всех безытеративных алгоритмов является необходимость определения и передачи на вышестоящий уровень управления всего эффективного множества элементов (или достаточно точной аппроксимации этого множества) [28]. Однако алгоритмы, основанные на теории нечетких множеств, позволяют строить эффективные множества только для координирующих параметров в интервалах заданного r-уровня с учетом фактической неопределенности для объекта управления. В [32] предлагается метод, основанный на декомпозиции общей задачи управления на подзадачи. Этот метод позволяет явно сформулировать все допущения, которые принимаются при замене общей задачи на подзадачи. Однако при применении этого метода могут возникнуть трудности получения структуры подзадач и принципов координации, совместимых с реально существующими методами управления технологическими процессами. Для многоуровневой организационно-технологической системы межуровневая и внутриуровневая координация отличается уровнем организации взаимодействия [13, 33]: 1. Координация по целям. Система управления вышестоящего уровня может устанавливать для нижестоящей подсистемы цели функционирования и характеризующие их показатели с заданием их количественных значений на планируемый период, т.е. целевая функция подсистемы формируется вышестоящим уровнем. 2. Координация по ограничениям. В этом случае на ряд параметров в точках сопряжения подсистем устанавливаются ограничения вышестоящей системой управления. Эти ограничения задаются с системных позиций и учитывают цели и ограничения подсистем. 3. Координация во времени (синхронизация работы подсистем). 4. Координация по входным или выходным параметрам. 5. Координация по целям [17]. Можно выделить также различные виды координирующих воздействий [3]: 1. Интегральная координация (слабая), когда для каждой подсистемы задается плановый показатель K на определенный период времени T и различные ограничения: 31

T

  z  t   z dt  K . *

(1.2)

0

2. Четкая координация (жесткая), когда для координируемого параметра K в каждый момент времени выставляется требование соблюдения равенства K  t   K .

3. Интервальная координация, которая требует лишь принадлежности координирующего параметра K заданному интервалу

K  t    Kmin , Kmax  .

4. Лингвистическая координация, при которой осуществляется выдача нечетких координирующих воздействий на естественном языке. В этом случае координирующая величина K является нечеткой и задается функцией принадлежности

  K  . Важным во-

просом является и выбор принципа координации [3, 33]: прогнозируемого взаимодействия, сбалансированного взаимодействия, оцененного взаимодействия, координирующий принцип нагрузочного типа и координирующий принцип коалиционного типа. Центральной проблемой разработки распределенных процедур решения сложных задач является нахождение такой декомпозиции задачи на подзадачи и выбор таких методов их решения, которые приводили бы к получению приемлемого по качеству решению всей задачи в целом за приемлемое время [34]. Формальные методы такой декомпозиции в настоящее время разработаны крайне слабо [34] и в основном для хорошо формализованных задач определенного класса (задача линейного программирования большой размерности [35]). Методы решения таких задач рассматриваются во второй главе. Существующие методы декомпозиции в основном сводятся к последовательной замене системы нелинейных дифференциальных уравнений в частных производных системой нелинейных алгебраических уравнений, а затем после линеаризации - к системе линейных уравнений [36]. Недостатком этого подхода являются экспоненциальный рост машинного времени на расчет с ростом числа элементов системы и использование единого для всех элементов шага квантования времени [37], хотя элементы могут характеризоваться временными квантами, отличающимися друг от друга на порядок и более. Та же самая проблема возникает и при решении задачи квантования по пространственным координатам. Выходом из такого положения 32

может стать разработка специальных декомпозиционных процедур, допускающих наличие у подсистем разного уровня разных квантов по параметрам и времени. В этом случае модель процесса управления автоматизированным технологическим комплексом становится адекватной существующей на практике политике управления. Возникающая вследствии декомпозиции сложной задачи управления параллельность решения ряда задач делает этот подход пригодным для реализации общей задачи управления на многомашинном многоуровневом вычислительном комплексе [37]. В основе декомпозиционного подхода лежит предположение о наличии общей, глобальной модели, которая описывает основные свойства системы адекватно поставленным целям принятия решения (или исследования). При наличии такой модели применение декомпозиционых методов позволяет резко сократить размерность решаемой задачи и свести ее к последовательному решению ряда задач намного меньшей размерности. Все модели, ограничения и критерии этих задач непосредственно вытекают только из специальным образом расчлененной глобальной целевой функции. При декомпозиционном подходе алгоритм взаимодействия между подсистемами (решаемыми задачами) и характер потоков информации между вышестоящими и нижестоящими уровнями являются производными и определяются методом декомпозиции глобальной задачи. Основные положения теории многоуровневых иерархических систем были разработаны в монографии [13]. В этой работе предложены некоторые принципы декомпозиции системной целевой функции и ограничений на целевые функции и ограничения, соответствующие отдельным подсистемам. Каждая подсистема оптимизирует свою целевую функцию, а верхний уровень координирует решения нижестоящих подсистем таким образом, чтобы достигался оптимум глобальной целевой функции. Процесс координации осуществляется с помощью некоторых фиктивных переменных, которые для нижестоящих подсистем являются параметрами. Используя результаты работы [13], можно получить конструктивные решения лишь для простейших линейных систем, так как обсуждаемые авторами проблемы формулируются на высоком уровне математической абстракции. Но вместе с тем эта работа дает понятийный аппарат для рассмотрения иерархических систем и создает возможность построения количественной теории для 33

многоуровневых систем. Задачи, критерии и фиктивные переменные подсистем различных уровней при декомпозиции могут не соответствовать реальным функциям управляющих органов и диспетчерских служб этих подсистем. Поэтому применить процесс декомпозиции в чистом виде для реальной системы представляется затруднительным. В работе [38] рассмотрен подход к декомпозиции многоуровневой иерархической системы обороны, выведен критерий оптимальности управления для информационной радиолокационной подсистемы и на этой основе синтезирован алгоритм оптимального управления такой системой. Анализ и синтез иерархических систем непосредственно не сводится к классической теории оптимальных систем, которая имеет дело только с одноуровневыми и одноцелевыми системами [39]. Иерархические системы относятся к классу многоуровневых и многоцелевых систем. В этих системах изменяется само понятие оптимальности, поэтому очень важно найти адекватные математические постановки задач и вложить разумный смысл в понятие оптимальности. В работе [40] исследована возможность строгого подхода к агрегированию и построению иерархических управляющих структур для сложных систем. Рассматривая вопрос об определении числа уровней в проектируемых системах, он отмечает, что формальная постановка задачи о выборе иерархической системы управления в терминах только описания процесса затруднительна. В [41] предлагается при декомпозиции применять теорию графов, на основе которой можно ввести различные операции преобразования графа: исключение ребер, эквивалентирование, стягивание и декомпозиция элементов графа. Декомпозиция на подзадачи осуществляется за счет предварительной формулировки требований к режиму системы и различных условий и затем к получению новой совокупности задач за счет пренебрежения некоторыми условиями и предположениями. В работе [42] приведен алгоритм согласования решений в распределенной системе взаимосвязанных задач с линейными моделями для двухуровневой иерархической системы. Новый алгоритм многоуровневого управления для сложных систем приведен в [43]. Здесь рассмотрена задача построения многоуровневого регулятора для сложной системы путем построения локальных регуляторов для каждой из подсистем, входящих в исходную систему, и последующего решения соответствующей задачи для всего регулятора в 34

целом для систем со статическими взаимосвязями. Некоторые вопросы управления многостадийными и многофазными технологическими процессами при последовательном (каскадном) соединении отдельных стадий обсуждаются в [44]. Применение блочно-импульсного преобразования к иерархическому управлению линейными нестационарными системами описывается в работе [45]. Методы статистической и динамической оптимизации иерархических систем, их идентификации и условия робастности приведены в работе [21]. Вопросам создания алгоритмов формализованного распределения задач в иерархических системах по элементам и уровням системы управления посвящена работа [46]. Преимущества использования иерархической структуры управления для сложных нелинейных объектов с экспериментальной проверкой показаны в работе [47]. Важным фактором является учет многокритериальности задачи управления сложным многоуровневым технологическим комплексом. Правильное формализованное представление целей системы в значительной мере определяет практическую ценность получаемых решений. В простейшем детерминированном случае под критерием по-

нимается функционал F  x,u  , определенный на множестве возможных решений, и при оптимизации необходимо найти решение

 x ,u  , обеспечивающее максимум этого функционала. *

*

При решении многокритериальной задачи отыскивается решение, обеспечивающее максимум каждого из частных критериев. Однако, такой максимум достигается лишь в идеальном случае, а в реальных задачах требуется компромиссное решение. Поэтому становится необходимым указание последовательности применения критериев и относительной важности частных критериев. Классические методы оптимизации (принцип максимума Понтрягина, метод динамического программирования Беллмана) позволяют решать задачи только со скалярным критерием [48]. При наличии векторного критерия применение этих методов оптимизации возможно только путем синтеза (чаще всего аддитивного) одного обобщенного критерия из частных критериев или введением всех (кроме основного) критериев в качестве дополнительных ограничений или штрафных функций. Необходимость перевода векторного критерия в скалярный 35

критерий оптимизации привела к введению специальных функций предпочтения решений, т.е. акцент все больше переносится на проблему предварительного определения преимущества того или иного решения [49]. Наиболее часто при решении многокритериальных задач применяются синтетические показатели качества - аддитивные, мультипликативные и минимаксные критерии. Аддитивный глобальный критерий качества определяется следующим образом: N

F  x,u    L j f j  x,u  ,

(1.3)

j 1

где N - число частных критериев эффективности, причем в частном случае могут использоваться и дополнительные условия нормировки

0  Lj  1 и

N

L j 1

j

 1.

Весовые коэффициенты для частных критериев подбираются субъективно, на основе экспертных оценок, однако имеются и методы объективного определения весов (например, из решения статистической игры с критерием минимизации экономических потерь при принятии решений [50]). Основным недостатком аддитивного критерия является возможность компенсации одного критерия за счет других. Мультипликативный глобальный критерий имеет вид N

F  x,u   N  L j f j  x,u 

(1.4)

F  x,u   min  f1  x,u  ,..., f N  x,u   .

(1.5)

j 1

а минимаксный

Мультипликативный критерий не допускает компенсации, и если значение одного из частных критериев равно нулю, то глобальный критерий также равен нулю. К достоинствам минимаксного критерия можно отнести тот факт, что для него не происходит смещения оптимума при добавлении новых несущественных критериев, но в тоже время он ухудшает чувствительность глобального критерия. 36

При возможности ранжирования критериев по важности для нахождения численного решения нередко применяется метод последовательных уступок. Если в системе имеется неопределенность, то задача принятия решения значительно усложняется. В случае статистической неопределенности (при известных распределениях случайных параметров) при наличии векторной целевой функции решение обычно характеризуется не одним, а несколькими числами и роль целевых функций f j играют определенные параметры распределения, причем наиболее известными примерами являются математическое ожидание M и дисперсия D , моменты высших порядков применяются редко. Иногда применяются и обычные функционалы, определенные на множестве решений, однако эти критерии уже носят вероятностный характер: они означают вероятности появления некоторых событий (например, вероятность безотказной работы оборудования и т.д.). В работе [51] проводится анализ и обобщение существующих алгоритмов координации на основании следующих введенных понятий: *

1. множество эффективных точек P или множества Парето (обладающих тем свойством, что невозможно улучшить значение какого-либо частного критерия для подсистемы по сравнению со значением, достигаемым этим критерием в точке x , без ухудшения значения хотя бы одного из прочих частных критериев); 2. множество полуэффективных точек R (если x  R , то не существует допустимой альтернативы, улучшающей значение сразу всех частных критериев); *

F

*

3. множество допустимых значений Y критериев. Одним из существенных достоинств решения многокритериальной задачи является тот факт, что в результате решения однокритериальной задачи мы получаем решение на границе какоголибо ограничения, т.е. она по сути представляет собой "генератор" узких мест, которые "болезненно" отражаются на поведении реального объекта и значительно снижают другие показатели режима работы системы - надежность, оптимальность и т.д. Многокритериальная постановка задачи отличается большей близостью к реальной задаче и меньшей долей абстракции [52]. Для реальных систем характерна зависимость выбора крите37

рия (или группы критериев) оптимизация от окружающей среды и ряда других факторов; т.е. в зависимости от ситуации должен проводиться выбор вектора критериев (или одного критерия) в процессе принятия решения оптимальным образом, а не вводиться в систему жестко или волевым путем. Особое значение приобретают вопросы анализа зоны применимости различных критериев и выявления возможности решения однокритериальных задач в частном случае. Поэтому становится возможным объективно провести выбор критериев по степени их применимости. Одним из существенных достоинств метода оптимизации можно считать тот факт, что изменение критерия оптимизаций и переход к векторной оптимизации, изменение ограничений не приводит к переходу к совершенно новой задаче и даже к смене метода решения задачи, т.е. метод оптимизации должен обладать достаточной гибкостью. В настоящее время принят такой подход к постановкам задачи, что критерии принятия решений не входят в модель и задаются человеком до начала решения задачи на ЭВМ. Однако субъективизм выбора критерия крайне велик в этом случае. Выбор того или иного критерия полностью определяется состоянием системы и внешней среды, а также степенью неопределенности по различным показателям, параметрам и характеристикам системы. Рассматривая концептуальные уровни описания сложной иерархической плохо определенной системы согласно [53] можно выделить три уровня описания с характерной для каждого из них степенью абстрагирования и детализации: 1. Методологический уровень. Использование на этом уровне теории сжатых множеств позволяет адекватно отобразить задачу управления сложным многоуровневым иерархическим комплексом, провести декомпозицию этой задачи на ряд более простых иерархических взаимодействующих задач с использованием основных операций сжатых множеств [54]. 2. Алгоритмический уровень. С учетом имеющейся в системе неопределенности могут быть использованы детерминированные методы, теории нечетких, интервальных или случайных множеств. В работе [55] основное внимание уделяется алгоритмам принятия решения на базе теории нечетких множеств и интервального анализа. Применение теории нечетких множеств позволяет построить конструктивные алгоритмы для расчета, идентификации и оптимизации для каждой из полученных с помощью сжатых множеств задач. 3. Операциональный уровень. Для расчета и оптимизации на 38

основе полученных на втором уровне алгоритмов необходимо иметь аналитические и численные методы оперирования с нечеткими и интервальными величинами, методы решения задач нечеткого и интервального линейного и нелинейного программирования, получения решений систем обычных и дифференциальных уравнений. Имеются также различные способы сведения задач нечеткого математического программирования к совокупности задач интервального программирования, а также к обычным детерминированным задачам, что дает возможность воспользоваться хорошо разработанными методами и пакетами программ математического программирования [56]. Требуются также конструктивные методы построения функций принадлежности. 1.4. Основные принципы адаптивного управления сложными системами Чаще всего проблема адаптации формулируется как способ управления объектом в обстановке неопределенности среды и самого объекта [57]. Последняя неопределенность связана, прежде всего, со сложностью объекта, препятствующей получению адекватной его модели. Адаптация выступает в качестве средства управления объектом при отсутствии его точной модели. Адаптация противопоставляется компенсации, для реализации которой необходимо иметь адекватную модель объекта. Как всякое управление, адаптацию удобно классифицировать по способам изменения объекта. Если изменяются его параметры, то это параметрическая адаптация, а при изменении структуры — структурная. Этапы управления сложным объектом Управление сложным объектом можно подразделить на следующие этапы [57] (рис. 1.4). 1. Формулировка целей управления. Па этом этапе определяются цели (множество целей), которые должны быть реализованы в процессе управления. Цель здесь используется в смысле модели потребного будущего субъекта, т. с. некоторого определенного состояния среды, которое желательно потребителю и которое в определенном смысле неестественно, т. е. не реализуется естественным образом без вмешательства извне (без управления). Субъект, в процессе общения с окружающей средой, фиксирует свое внимание на тех ее параметрах, которые, с одной стороны, определяют состояние его потребностей, а с другой — могут быть им изменены, т. е. субъект располагает средствами для такого воз39

действия па среду, при котором эти параметры изменяются в нужную ему сторону. Будем считать, что субъект, образуя цели, реагирует только на эти параметры. Параметры среды, которые определяют его потребности, но не могут быть изменены субъектом, вообще говоря, косвенно влияют на его поведение при целеобразовании.

Формулировка целей управления 5 Определение объекта 4 Структурный синтез модели 3 Параметрический синтез модели

Идентификация

2

Планирование экспериментов с моделью

Синтез управления 1

Адаптация

Реализация управления

Рис. 1.4. Этапы управления сложным объектом Таким образом, управление чтобы:

U необходимо субъекту для того,

1) добиться поставленной реализовать условие

цели

S U , t   S * ,

управления

Z * , т. е. (1.6)

где время t обозначает дрейф свойств системы во времени. 2) компенсировать дрейф ситуации, который, как правило, 40

нарушает целевое условие (1.6). Именно поэтому всякое управление следует рассматривать с двух точек зрения: во-первых, как средство добиться поставленных целей и, во-вторых, как средство компенсации неблагоприятных: изменений в среде, нарушающих выполнение этих целей. Заметим, что под параметрами среды S здесь и в дальнейшем подразумеваются измеряемые параметры собственно среды X параметры объекта Y , взаимодействующего со средой. Таким образом,

S  X ,Y .

(1.7)

Однако дифференциация 5 возникает лишь после выделения объекта из среды. Процедура такого выделения представляет собой следующий этап управления сложным объектом. 2. Определение объекта управления связано с выделением той части среды, состояние которой интересует потребителя в связи с реализацией сформулированных им целей. Цели и ресурсы управления позволяют выделить ту часть пространства, состояние которой необходимо контролировать и на которую следует воздействовать, для того чтобы выполнить заданные цели управления. Иногда, когда границы объекта очевидны, такой проблемы не возникает. Это бывает в случаях, когда объект достаточно автономен [57]. Однако в других случаях связи объекта со средой настолько сильны и разнообразны, что порой очень трудно понять, где кончается объект и начинается среда. Именно это обстоятельство и заставляет выделять процесс определения объекта в самостоятельный этап управления. Задача заключается в том, чтобы для заданного множества целей

Z  и ресурсов *

R определить такой вариант объекта, кото-

рый по критерию достижимости этих целей окажется лучше всех. Если располагают формальным описанием среды, то процесс выделения объекта из этой среды в принципе не представляет трудностей. Действительно, «высекая» различные «куски» среды и называя их объектом, всегда можно проверить на модели, достигаются ли цели управления в данном объекте или нет. Если нет, то можно было бы оценить численно, какова степень неуправляемости этого варианта объекта. Повторив эту процедуру для других вариантов высечения, можно остановиться на том, который позволяет получить максимальную управляемость. 41

Однако формального описания среды нет. Тем не менее, направление поиска довольно очевидно. Всегда, когда нет (или пока нет) формального аппарата решения проблемы, за решением (хотя и очень приближенным) обращаются к экспертам. На стадии определения объекта это единственно возможный подход. Для этого следует экспертно синтезировать несколько вариантов объекта, а затем также с помощью экспертов оценить их по критерию и выбрать наилучший. 3. Структурный синтез модели [58]. Под структурой понимают вид зависимости F состояния объекта Y от его входов — неуправляемого X и управляемого U : (1.8) Y  F  X ,Y  В общем случае зависимость F определяется некоторым ал-

горитмом, который указывает, как, располагая информацией о входах X и U , определить выход Y . Вид этого алгоритма с точностью до его параметров и определяет структуру F . Условно можно считать, что модель F состоит из структуры и параметров:

F  St , C

(1.9)

где

St - структура модели F , C   c1 , , ck  — ее параметры.

Таким образом, целью третьего этапа является определение структуры St объекта управления. Например, категории линейности, статичности, детерминированности, дискретности являются структурными категориями. Так, линейная статичная непрерывная детерминированная структура однозначно определяет следующий вид для F :

y  c1 x1 

 cn xn ,

причем па стадии структурного

синтеза конкретные значения параметров

c1 ,

, cn

пока неважны.

Важен лишь вид зависимости F от этих параметров и входов объекта. Сам по себе структурный синтез модели является сложным и многоэтапным процессом и подразумевает следующие подэтапы: 1. Определение входов и выходов объекта, т. е. синтез модели на уровне «черного ящика». 2. Экспертное ранжирование входов и выходов объекта. 3. Декомпозиция модели. 42

4. Выбор структурных элементов модели. Экспертный метод решения перечисленных задач является основным. 4. Параметрический синтез модели связан с определением параметров C   c1 ,

, ck  модели

Y  F  X ,U , C  ,

(1.10)

где выбранная на предыдущем этапе структура St отражена в модельном операторе F . Для определения параметров C модели, очевидно, необходимо иметь информацию о поведении входов X , U и выхода Y объекта. В зависимости от того, как получена эта информация, различают два подхода — идентификацию и планирование экспериментов с объектом. Идентификация [58] параметров модели F объекта связана с оценкой численных значений искомых параметров в режиме нормального функционирования объекта, т. е. без организации специальных управляющих воздействий на него. Исходной информацией для идентификации являются структура St и наблюдения за поведением входа X  t  и выхода Y  t  объекта при его взаимодействии со средой. Таким образом, пара

J t   X t  , Y t  ,

(1.11)

полученная в режиме нормального функционирования объекта, является основным источником информации при идентификации. Однако не все входы объекта X и U изменяются в процессе его нормальной эксплуатации. Так, наверняка не изменяются те параметры из U , на которые не влияет состояние среды. Для выяснения зависимости выхода объекта Y от параметров такого рода необходимо преднамеренно их варьировать, т.е. необходим эксперимент с объектом. Однако всякого рода эксперименты нарушают режим нормального функционирования объекта, что всегда нежелательно. Поэтому эксперимент, которого нельзя избежать, следует проводить, минимально возмущая объект, но так, чтобы получить максимальную информацию о влиянии варьируемых параметров на выход объекта. Здесь приходят на помощь методы планирования эксперимента. 43

В процессе планирования эксперимента синтезируется специальный план эксперимента, позволяющего в заданных ограничениях с максимальной эффективностью определить параметры C модели объекта управления. Например, для статического объекта этот план представляет собой набор состояний управляемого входа объекта

U1 ,

,U N

принадлежащих заданной допустимой области

варьирования, в которых определяется его выход

Yi  F U i  0

 i  1,

 i  1,

, N  . Полученные

N

Y1 , пар

, YN ,

т.е.

U i , Yi

, N  являются исходной информацией для определения

необходимых параметров модели. Поскольку в процессе проведения экспериментов на объекте получается: новая информация, то могут измениться представления о структуре модели (например, первоначальная гипотеза о линейности модели сменится на нелинейную). Это обстоятельство заставляет снова обращаться к структурному синтезу, точнее, вводить коррекцию структуры модели. Сказанное несколько «размывает» понятие этапа планирования эксперимента, распространяя его и на процессы выбора и коррекции структуры. После того как выяснено влияние на выход объекта Y неуправляемого X и управляемого U входов, задачу синтеза модели, которой были посвящены третий и четвертый этапы, можно считать выполненной. Полученная модель является исходной для процесса синтеза управления. 5. Синтез управления связан с принятием решения о том, каково должно быть управление U , чтобы в сложившейся ситуации

S достигнуть заданной цеди управления Z * в объекте. Это решение опирается на имеющуюся модель объекта F , заданную цель Z * , полученную информацию о состоянии среды X и объекта Y , а также на выделенные ресурсы R управления, которые представляют собой ограничения, накладываемые на управление U в связи со спецификой объекта и возможностями си системы управления. Синтез управления сводится к решению соответствующей вариационной задачи. Полученное управление должно быть оптимально с точки зрения целей управления и представляет собой, вообще говоря, программу изменения управляемых параметров во времени, т. е. 44

U *  U * t  .

(1.12)

6. Реализация управления связана с процессом отработки объектом программы, полученной на предыдущем этапе. Такой процесс для неактивных объектов решается методами теории следящих систем [59], отрабатывающих заданную программу. Значительно более сложна реализация управления активной системой. Однако эти трудности должны быть преодолены на стадии синтеза модели объекта управления, учитывающей его активность. Тогда отработка программы будет такой же, как и при управлении пассивным объектом; Если управление реализовано, а его цель не достигнута (в случае сложного объекта), приходится возвращаться к одному из предыдущих этапов. Даже в самом лучшем случае, когда поставленная цель достигнута, необходимость обращения к предыдущему этапу вызывается изменением состояния среды X или сменой *

цели управления Z . Таким образом, при самом благоприятном стечении обстоятельств следует обращаться к этапу синтеза управления (стрелка 1 на рис. 1.1.2), на котором определяется новое управление, отражающее новую, сложившуюся в среде ситуацию. Так функционирует стандартный контур управления, которым пользуются при управлении простыми объектами. 7. Специфика сложного объекта управления требует расширения описанного цикла за счет введения этапа адаптации, т. с. коррекции всей системы управления или, точнее, — всех этапов управления. Адаптация здесь выступает в роли более глубокой обратной связи, улучшающей процесс управления сложной системой. Рассмотрим ее подробнее. Адаптация системы управления Адаптация как процесс приспособления системы управления к специфическим свойствам объекта и окружающей среды имеет несколько иерархических уровней, соответствующих различным этапам управления сложным объектом. Рассмотрим их, начиная с нижнего уровня. 1. Параметрическая адаптация связана с коррекцией, подстройкой параметров C модели. Необходимость в адаптации такого рода возникает ввиду дрейфа характеристик управляемого объекта. Адаптация позволяет подстраивать модель па каждом шаге управления, причем исходной информацией для нее является рассогласование откликов объекта и модели, устранение которого и 45

реализует процесс адаптации (стрелка 2 на рис. 1.4). Такого рода адаптивное управление часто называют управлением с адаптивной моделью объекта. Преимущества его очевидны. Методы и аппарат, которые при этом используются, присущи этапу идентификации. Именно поэтому адаптация параметров связана стрелкой 2 с их идентификацией, т. е. с определением параметров в режиме нормального функционирования управления объектом. Однако процесс управления объектом часто не предоставляет достаточной информации для коррекции модели, так как управление недостаточно разнообразно, чтобы дать информацию о специфических свойствах объекта, которые необходимы для синтеза управления и которые следует отразить в модели объекта. Это обстоятельство заставляет искусственно вводить в управление дополнительное разнообразие в виде тестовых сигналов, накладывающихся на собственно управление. Организация этих сигналов и образует следующий контур адаптации, показанный пунктиром на рис. 1.4. При этом, строго говоря, снижается эффективность управления. Однако полученная информация позволяет адаптировать модель, что гарантирует успех управления на последующих шагах. Адаптивное управление, в процессе которого не только достигаются цели, но и уточняется модель, называют дуальным [57], т. е. двойственным. Здесь путем специальной организации управления сразу достигаются две цели — управления и адаптации модели. Методически введение тестовых сигналов соответствует решению задачи планирования эксперимента. Действительно, при дуальном управлении следует таким образом воздействовать тестовыми сигналами на объект, чтобы, минимально нарушая нормальное функционирование процесса управления, получить максимальную информацию о специфике объекта в целях использования этой информации для коррекции модели. Это типичная задача планирования эксперимента. 2. Структурная адаптация. Далеко не всегда адаптация модели путем коррекции се параметров позволяет получить адекватную модель объекта. Неадекватность возникает при несовпадении структур модели и объекта. Если в процессе эволюции объекта его структура изменяется, то такая ситуация складывается постоянно. Указанное обстоятельство заставляет обращаться к адаптации структуры модели, что реализуется методами структурной адаптации. Например, здесь можно воспользоваться процедурой перехода от одной альтернативной модели к другой. При этом альтернативы могут различаться числом и характером входов-выходов модели, 46

вариантами декомпозиции и структурой элементов модели. Альтернативные модели нуждаются в идентификации параметров, что осуществляется отмеченными выше методами параметрической адаптации. Методически структурная адаптация модели использует алгоритмы структурного синтеза. Поэтому ее реализация в алгоритме осуществляется путем, показанным па рис. 1.4 стрелкой 3. 3. Адаптация объекта. Если и структурная адаптация модели не позволяет повысить эффективность функционирования (например, какие-то цели управления не реализуются в объекте), то следует адаптировать объект управления (стрелка 4 на рис. 1.4). Эта адаптация связана с изменением объекта, т. е. пересмотром границы, разделяющей объект и среду. При этом следует учитывать, что расширение объекта приводит, как правило, к повышению его управляемости, но требует дополнительных ресурсов для реализации управления (т. е. последующего структурного и параметрического синтеза). Разные варианты расширения объекта квалифицируются различным образом по управляемости и требуемому ресурсу управления. Выбор наилучшего варианта объекта в процессе управления им и составляет основу адаптации объекта. 4. Адаптация целей управления. Наконец, если и эта мера неэффективна, следует обратиться к адаптации целей управления (стрелка 5 па рис. 1.4). В этом случае определяется новое множество целей

Z  , достижение которых обеспечивается созданной *

системой управления. Ввиду того, что объект эволюционирует (вместе со средой), изменяется и множество достигаемых им целей. Важно знать, какие именно цели могут быть поставлены перед системой управления. Такую информацию можно получить путем адаптации целей. В результате этого процесса фактически адаптируется субъект, который изменяет свои потребности так, чтобы они удовлетворялись путем реализации нового множества целей, достигаемых системой управления в данный период времени. Поэтому адаптацию целей следует считать адаптацией потребностей субъекта, пользующегося услугами созданной системы управления и поставленного перед необходимостью такой адаптации. Как видно, все указанные выше четыре уровня адаптации системы управления решают одну и ту же задачу — обеспечение достижения системой поставленных целей. Каждый последующий уровень адаптации имеет постоянную времени на несколько порядков выше, чем предыдущий, т, е. рабо47

тает значительно медленнее. Это обстоятельство следует учитывать при создании системы адаптации: верхние уровни адаптации должны включаться лишь в том случае, если нижние не могут эффективно отследить изменения, произошедшие в объекте. В заключение необходимо отметить, что неформализуемые уровни адаптации реализуются человеком, который при этом может применять приемы и подходы, близкие к рассмотренным. Рассмотрим основные особенности, которые присущи сложным системам, с точки зрения возможности эффективной адаптации системы управления такими объектами. Особенности сложных систем как объектов адаптации 1 . Отсутствие необходимого математического описания является обязательной чертой сложного объекта управления. Под математическим описанием подразумевается наличие алгоритма F вычисления состояния объекта Y по наблюдениям его входов — управляемого

U и неуправляемого X , т. е. Y  F  X ,U  .

2. «Зашумленность» сложных систем — важная черта, характеризующая трудность процессов анализа и управления ими. Зашумленность обусловлена не столько наличием каких-то специальных генераторов случайных помех, сколько сложностью объекта и вытекающим из нее неизбежным обилием всякого рода второстепенных (с точки зрения целей управления) процессов. Поэтому поведение объекта зачастую оказывается неожиданным для исследователя, причем эту неожиданность удобнее рассматривать как случайный фактор, как зашумленность, чем разбираться в механизме второстепенных процессов, протекающих в сложной системе и порождающих неожиданность ее поведения. Любой сложный объект имеет много такого рода «неожиданностей», которые являются свидетельством его сложности. Таковы социальные, экономические, технические, технологические системы и многие другие. 3. «Нетерпимость» к управлению [57] является, пожалуй, самой досадной чертой сложной системы. Дело в том, что она существует, грубо говоря, вовсе не для того, чтобы ею управляли. Она «не любит» управления по причине «независимости» своего существования от целей субъекта, желающего управлять ею. Трудно рассчитывать на то, что «собственные» цели сложной системы совпадут с целями управления. Скорее они будут противоречить друг другу. Это и вызывает «негативную» реакцию сложной системы на управление, 48

цель которого с ней «не согласована». Следует отметить, что если сложная система обладает активностью, например, содержит в себе людей или их коллективы, то кавычки в предыдущем абзаце можно снять. 4. Нестационарность сложной системы естественно следует из ее сложности. Нестационарность проявляется в дрейфе характеристик системы, в изменении ее параметров, в эволюции сложной системы во времени. Чем сложнее система, тем более рельефно проявляется эта ее черта, что создает серьезные трудности при создании модели сложной системы и управлении ею. 5. Невоспроизводимость экспериментов со сложной системой также является ее важной чертой. Она связана, прежде всего, с зашумленностью и нестационарностью сложной системы. Проявляется эта черта в различной реакции системы на одну и ту же ситуацию или управление в различные моменты времени. Сложная система как бы все время перестает быть сама собой. Эта черта накладывает специальные требования на процессы синтеза и коррекции модели системы. Перечень особенностей сложной системы можно было бы продолжить. Однако в любом случае следует помнить, что рассматриваются лишь черты, свойственные сложной системе, но ни в коей мере не формальные признаки. Отсутствие одной или даже нескольких из указанных черт вовсе необязательно делает систему простой. Эта неформальная характеристика, отличаясь размытостью и приближенностью, позволяет, тем не менее, в какой-то мере описать сложную систему как объект управления вообще и адаптации в частности. Таким образом, рассмотрены основные положения теории систем и системного подхода, которые необходимы для разработки методов оптимального управления сложными системами. Показаны основные особенности многоуровневых иерархических систем и принципы адаптивного управления. Отмечено, что наиболее сложным элементом на начальном этапе проектирования системы управления является обоснование показателя качества управления системой. Далее рассматриваются основные методы, используемые для оптимизации управления системой. Следует отметить, что в управлении системами используется широкий диапазон методов, начиная с классических и заканчивая 49

современными методами, учитывающими системный характер объекта управления. 2. ТЕОРИЯ ПРИНЯТИЯ РЕШЕНИЙ КАК МЕТОДОЛОГИЧЕСКАЯ ОСНОВА ОПТИМИЗАЦИИ УПРАВЛЕНИЯ СЛОЖНЫМИ СИСТЕМАМИ При системном подходе к управлению важную роль играет теория принятия решений, описывающая закономерности процесса принятия решений и определяющая методы и технологию их подготовки и выбора. Отметим, что при решении задачи управления системой показатель качества управления чаще всего имеет скалярный вид, хотя это не означает, что цель управления во всех случаях достаточно проста. Существуют специальные методы, которые позволяют эффективно скаляризовать векторные показатели качества управления. В таком случае задача оптимизации управления сводится к решению задачи нахождения максимума числовой функции на некотором множестве её аргументов. Саму функцию называют целевой функцией задачи оптимизации. Универсального и достаточно эффективного метода нахождения решения произвольной задачи не существует. Возможность применения того или иного метода оптимизации решающим образом зависит от вида зависимости оптимизируемого показателя от влияющих факторов (управленческих воздействий) и ограничений задачи, т.е. от вида оптимизационной математической модели. В некоторых случаях исходную математическую модель при дополнительном анализе задачи удается видоизменить так (например, линеаризовать целевую функцию и ограничения), что становится возможным применение более простых методов оптимизации. В общем виде задачу скалярной оптимизации можно сформулировать следующим образом: найти

max F  X  при условии, что X  x X

или

найти

Arg max F  X  ,

где F  X  - целевая функция,

X x

 x - область допустимых значений 50

вектора управления X   x1 ,

, xn  . T

Рассмотрим основные методы решения задач оптимизации управления в такой постановке. 2.1. Основные типы задач оптимизации управления по скалярному показателю качества и методы их решения 2.1.1. Методы линейной оптимизации Задачами линейного программирования или линейной оптимизации (ЛП, ЛО) называются оптимизационные задачи, в которых ограничения представляются в виде равенств или неравенств и целевая функция линейна. Методы линейного программирования (ЛП) широко используются для решения различных военных, экономических, промышленных и организационных задач. Главными причинами столь широкого применения методов ЛП являются доступность математического обеспечения для решения задач ЛП большой размерности и возможность анализа решений задач ЛП при вариации исходных данных (анализа чувствительности). В работе [60] отмечается, что линейное программирование представляет собой наиболее часто используемый метод оптимизации (74% от общего числа применяемых оптимизационных методов). Около четверти машинного времени, затраченного за последние годы на проведение научных исследований, было отведено решению задач ЛП и их многочисленных модификаций [61]. Ôîðìàëèçàöèÿ çàäà÷ ëèíåéíîé îïòèìèçàöèè  çàâèñèìîñòè îò âèäà îãðàíè÷åíèé ðàçëè÷àþòñÿ òðè îñíîâíûå ôîðìû çàäà÷è ëèíåéíîé îïòèìèçàöèè (ËÎ). Ñòàíäàðòíàÿ ôîðìà çàäà÷è ËÎ ôîðìóëèðóåòñÿ ñëåäóþùèì îáðàçîì: íàéòè n

min z   c j x j

(2.1)

j 1

ïðè îãðàíè÷åíèÿõ n

a x j 1

ij

j

 bi , 51

i  1, m.

(2.2)

n

a x ij

j 1

j

 bi ,

x j  0,

i  1, m. j  1, n.

Êàíîíè÷åñêàÿ ôîðìà çàäà÷è ËÎ: íàéòè n

min z   c j x j

(2.3)

j 1

ïðè îãðàíè÷åíèÿõ n

a x j 1

ij

x j  0,

j

 bi , i  1, m, (2.4)

j  1, n.

 îáùåé ôîðìå çàäà÷è ËÎ ÷àñòü îãðàíè÷åíèé çàäàåòñÿ â âèäå ðàâåíñòâ (2.4), ÷àñòü – â âèäå íåðàâåíñòâ (2.2). Ïîñòàíîâêè ýêîíîìè÷åñêèõ çàäà÷ èñïîëüçóþò ñòàíäàðòíóþ ôîðìó, äëÿ êàíîíè÷åñêîé ôîðìû ðàçðàáîòàíû îñíîâíûå âû÷èñëèòåëüíûå àëãîðèòìû. Âñå òðè ôîðìû çàïèñè ïåðåâîäÿòñÿ îäíà â äðóãóþ ïóòåì ââåäåíèÿ äîïîëíèòåëüíûõ ïåðåìåííûõ. Êàæäîå îãðàíè÷åíèå òèïà íåðàâåíñòâà ìîæíî çàìåíèòü íà îãðàíè÷åíèå òèïà ðàâåíñòâà, ââåäÿ íîâóþ íåîòðèöàòåëüíóþ ïåðåìåííóþ. Òàê, îãðàíè÷åíèå

ai1x1+ai2x 2+...+ainxn  bi

çàìåíÿåòñÿ ðàâåíñòâîì

ai1x1+ai2x 2+...+ainxn+xn+1 =bi , à öåëåâàÿ ôóíêöèÿ

z ïðèíèìàåò âèä

xn+1  0,

z=c1x1+c2x2+...+cnxn+0•xn+1. ×èñëî ââîäèìûõ äîïîëíèòåëüíûõ ïåðåìåííûõ ïðè òàêèõ ïðåîáðàçîâàíèÿõ ðàâíî ÷èñëó ïðåîáðàçóåìûõ íåðàâåíñòâ. 52

Íàîáîðîò, îãðàíè÷åíèå òèïà ðàâåíñòâà çàìåíÿåòñÿ äâóìÿ íåðàâåíñòâàìè. Íàïðèìåð, îãðàíè÷åíèå

ai1x1+ai2x 2+...+ainxn =bi ýêâèâàëåíòíî äâóì íåðàâåíñòâàì:

ai1x1+ai2x 2+...+ainxn  bi , ai1x1+ai2x2+...+ainxn  bi .

Óìíîæàÿ ïåðâîå èç íèõ íà –1, îãðàíè÷åíèÿ â ñòàíäàðòíîé ôîðìå çàïèñè:

ïîëó÷èì

äâà

–ai1x1–ai2x 2–...–ainxn  –bi , ai1x1+ai2x2+...+ainxn  bi .

 îáùåé ôîðìå íåêîòîðûå ïåðåìåííûå xj ìîãóò áûòü ìåíüøå íóëÿ; ïðè ïåðåõîäå ê äðóãèì ôîðìàì çàäà÷è ËÎ îíè çàìåíÿþòñÿ íà äâå íåîòðèöàòåëüíûå ïåðåìåííûå xj ,

xj :

xj= xj – xj ,

xj  0, xj  0.

Çàäà÷à ìèíèìèçàöèè öåëåâîé ôóíêöèè n

z=c1x1+c2x2+...+cnxn =  c j x j j 1

ýêâèâàëåíòíà çàäà÷åе ìàêñèìèçàöèè ôóíêöèè n

z    c j x j , j 1

ïîñêîëüêó min z=–max(–z). Ïî ñëîæèâøåéñÿ òåðìèíîëîãèè ôóíêöèÿ n

z  cjxj j 1

íàçûâàåòñÿ öåëåâîé ôóíêöèåé; âåêòîð X =(x1, x2, ... xn) åâêëèäîâà ïðîñòðàíñòâà Rn íàçûâàåòñÿ ïëàíîì èëè äîïóñòèìûì ðåøåíèåì, åñëè óäîâëåòâîðÿþòñÿ îãðàíè÷åíèÿ (2.3.), (2.4.). Ïëàí X =(x10,x20,...,xn0), ïðè êîòîðîì öåëåâàÿ ôóíêöèÿ ïðèíèìàåò ìèíèìàëüíîå (ìàêñèìàëüíîå) çíà÷åíèå, áóäåò îïòèìàëüíûì. Êàíîíè÷åñêàÿ ôîðìà çàäà÷è ËÎ êðîìå àëãåáðàè÷åñêîãî ïðåäñòàâëåíèÿ (2.1), (2.2), (2.4) èìååò è 0

53

äðóãèå âàðèàíòû çàïèñè. Â âåêòîðíîé ôîðìå çàïèñè ôîðìóëèðîâêà èìååò âèä:

min z  C  X

íàéòè ïðè îãðàíè÷åíèÿõ

A1 x1  A2 x2  ...  An xn  B, ãäå

C   c1 ,

âåêòîðû

B   b1 ,

, cn  ,

(2.5)

X   x1 ,

, xn  ,

, bm  ;

C  X – ñêàëÿðíîå ïðîèçâåäåíèå; Ai : A1   a11 ,

âåêòîðû

An   a1n ,

x  0,

, amn 

íåèçâåñòíûõ

, am1  ,

ñîñòîÿò

èç

A2   a12 ,

, am 2  ,...,

êîýôôèöèåíòîâ

ïðè

xi .

 ìàòðè÷íîé ôîðìå çàïèñè çàäà÷à ËÎ ôîðìóëèðóåòñÿ òàê: íàéòè min z  CX (2.6) ïðè îãðàíè÷åíèÿõ AX  B, X  0 , (2.7) ãäå

ìàòðèöà-ñòðîêà

X   x1 , T

C   c1 ,

, cn  ,

ìàòðèöà-ñòîëáåö

, xn  , ìàòðèöà îãðàíè÷åíèé A ðàçìåðà m  n :

 a11 a22  a a22 A   21  ... ...   am1 am 2

... a1n   b1     ... a2 n  b ; B   2 .  ...  ... ...     ... amn   bm 

B – ìàòðèöà-ñòîëáåö ñâîáîäíûõ ÷ëåíîâ ðàçìåðà m1 . Óñëîâèå (2.7) îçíà÷àåò, ÷òî âñå ýëåìåíòû

xi

ìàòðèöû-

ñòîëáöà íåîòðèöàòåëüíû. Äàëåå ïðåäïîëàãàåòñÿ, ÷òî ñòðîêè ìàòðèöû A ëèíåéíî íåçàâèñèìû – â ïðîòèâíîì ñëó÷àå ñèñòåìà îãðàíè÷åíèé (2.4) ñîäåðæàëà áû ïðîèçâîäíûå ðàâåíñòâà. Èç ýòîãî óñëîâèÿ ñëåäóåò ñîîòíîøåíèå m  n , êîòîðîå âûïîëíÿåòñÿ 54

â ïðàêòè÷åñêèõ çàäà÷àõ. Òàê êàê ðàíã ìàòðèöû A rank  A   m , òî ÷èñëî ëèíåéíî íåçàâèñèìûõ ñòîëáöîâ ìàòðèöû A òàêæå ðàâíî m . Ñèñòåìà (2.4) áóäåò îïðåäåëÿòü m áàçèñíûõ ïåðåìåííûõ

xk ,

ñîîòâåòñòâóþùèõ

ýòèì

ñòîëáöàì,

êàê

ëèíåéíûå

n  m ñâîáîäíûõ ïåðåìåííûõ, ôóíêöèè îñòàëüíûõ ïðèíèìàþùèõ ïðîèçâîëüíûå çíà÷åíèÿ. Используя стандартную форму задачи ЛП в матричных обозначениях можно сформулировать основные определения следующим образом. Допустимое решение представляет собой неотрицательный вектор X , для которого выполняются ограничения AX = B . Допустимая область, обозначаемая через S , состоит из всех допустимых решений. Формально это определение можно записать в следующем виде: S   X AX = B, X  O .

Если допустимая область S пуста, задача ЛП называется противоречивой. Оптимальным решением называется такой допустимый вектор

X0 , для которого соответствующее ему значение целевой функ0 ции  CX  больше, чем для любого другого допустимого решеX0 является оптимальным решением 0 0 задачи тогда и только тогда, когда X  S и CX  CX для всех XS . ния. Таким образом, вектор

Оптимальное значение задачи ЛП представляет значение целевой функции, соответствующее оптимальному решению. Если z — оптимальное значение, то z  CX . Неединственность оптимального решения. В том случае, когда задача ЛП имеет более одного оптимального решения, говорят, что у нее имеются различные оптимальные решения. При этом существует более одного допустимого решения со значениями це0

0

0

 .

левой функции, равными оптимальному z

0

Единственность оптимума. Говорят, что оптимальное решение задачи ЛП единственно, если не существует других оптимальных 55

решений. Неограниченный оптимум. В том случае, когда задача ЛП не обладает конечным оптимумом (т. е. max z   или min z   ), говорят, что задача имеет неограниченный оптимум. Основы симплекс-метода Рассмотрим общую задачу ЛП с m ограничениями и менными, записанную в стандартной форме: максимизировать

z  c1 x1  c2 x2 

при ограничениях

 cn xn

a11 x1  a12 x2 

 a1n xn  b1 ,

a21 x1  a22 x2 

 a2 n xn  b2 ,

am1 x1  am 2 x2 

 amn xn  bm ,

x1 , x2 ,

n пере-

, xn  0.

Как правило, число уравнений задачи меньше числа переменных (т. е. m  n ), поэтому множество ее допустимых решений бесконечно. Следовательно, выбор наилучшего допустимого решения, максимизирующего z , нетривиален. Известен классический метод решения систем линейных уравнений, называемый методом Гаусса — Жордана. Основная идея этого метода состоит в сведении системы m уравнений с n неизвестными к каноническому или ступенчатому виду при помощи элементарных операций над строками. При использовании первых

m переменных  x1 ,

, xm  каноническая система имеет следую-

щий вид:

x1  a1,m 1 xm 1 

 a1s xs 

 a1n xn  b1 ,

xr  ar ,m 1 xm 1 

 ars xs 

 arn xn  br ,

xm  am,m 1 xm 1 

 ams xs  56

 amn xn  bm .

(2.8)

Переменные

x1 ,

, xm , входящие с единичными коэффициен-

тами только в одно уравнение системы и с нулевыми — в остальные, называются базисными или зависимыми. В канонической системе каждому уравнению соответствует ровно одна базисная переменная. Остальные

n  m переменных  xm1 ,

, xn  называ-

ются небазисными или независимыми переменными. При записи системы в каноническом виде все ее решения можно получить, присваивая независимым переменным произвольные значения и решая затем получающуюся каноническую систему относительно зависимых переменных. Для приведения системы к каноническому виду можно использовать два типа элементарных операций над строками. 1. Умножение любого уравнения системы на положительное или отрицательное число. 2. Прибавление к любому уравнению другого уравнения системы, умноженного на положительное или отрицательное число. Элементарное преобразование представляет собой последовательность элементарных операций над строками, в результате которой коэффициент при некоторой переменной становится равным единице в одном из уравнений системы и нулем в остальных уравнениях. Базисным решением системы в каноническом виде называется решение, полученное при нулевых значениях небазисных переменных. Например, в системе (2.8) одно из базисных решений задается как x1  b1 ,

, xm  bm , xm1 

 xn  0 . Если b1 ,

, bm к

тому же неотрицательны, то полученное решение называется допустимым базисным решением. Базисное решение называется допустимым базисным решением, если значения входящих в него базисных переменных неотрицательны. В системе (2.8) для удобства записи в качестве базисных используются первые m переменных. В действительности для получения канонической системы уравнений и базисного решения любые m из n переменных можно выбрать в качестве базисных. Это означает, что максимальное число базисных решений задачи ЛП с m ограничениями и n переменными, записанной в стандартной форме, конечно и выражается следующим образом: 57

n  n! .    m  m ! n  m !

(2.9)

Каждое допустимое базисное решение по определению является базисным решением. Следовательно, максимальное число допустимых базисных решений также ограничено приведенной величиной. В [62] показано, что если задача ЛП обладает оптимальным решением, то хотя бы одна из вершин допустимой области оптимальна. Можно доказать, что любая вершина допустимой области соответствует некоторому допустимому решению системы ограничений. Поэтому оптимальное решение задачи ЛП можно найти путем перебора допустимых базисных решений. Такой процесс будет конечным, поскольку число допустимых базисных решений не превосходит величины (2.9). Интуитивный подход к решению задачи ЛП, обладающей оптимальным решением, состоит в нахождении при помощи метода Гаусса — Жордана всех возможных допустимых базисных решений и последующем выборе решения, которому соответствует наилучшее значение целевой функции. Однако при решении задач ЛП симплекс-метод оказывается более эффективным, так как при этом анализируется лишь часть всех допустимых базисных решений. Рассмотрим кратко его суть. Симплекс-метод разработан Дж. Данцигом [63]. Он представляет собой итеративную процедуру решения задач ЛП, записанных в стандартной форме. При этом требуется, чтобы система ограничений-равенств была приведена к каноническому виду, что дает возможность легко находить допустимое базисное решение. Алгоритм симплекс-метода включает следующие основные шаги: 1. Выбор начального допустимого базисного решения. 2. Переход от начального решения к другому допустимому базисному решению с лучшим значением целевой функции. На этом шаге исключаются из рассмотрения все допустимые базисные решения, которые хуже текущего решения. В силу этого обстоятельства симплекс-метод гораздо эффективнее упомянутого выше «прямого» подхода к решению задач ЛП. 3. Продолжение поиска допустимых базисных решений, улучшающих значение целевой функции. Если некоторое допустимое базисное решение нельзя улучшить, оно является оптимальным, и алгоритм симплекс-метода завершает свою работу. Рассмотрим шаг 2 симплекс-метода в предположении, что базисное решение, задаваемое системой (2.8), допустимо. Пусть 58

допустимое базисное решение задано в следующем виде: Базисные переменные xi  bi  0, i  1, 2,

,m,

Небазисные переменные x j  0, j  m  1,

,n.

Множество базисных переменных называется базисом и обозначается через

XB .

Вектор коэффициентов при базисных пере-

менных обозначается через

C B . Для начального базиса

XB   x1 ,

, xm  , CB   c1 ,

, cm  .

Поскольку небазисные переменные равны нулю, значение целевой функции z , соответствующее начальному допустимому базисному решению, равно

z  CB  XB  c1b1 

 cmbm .

Симплекс-метод дает возможность проверить существование допустимого базисного решения с бо льшим значением z . Для этого сначала проводится проверка оптимальности рассматриваемого решения. Если оно не оптимально, симплекс-метод позволяет перейти к смежному допустимому базисному решению с бо льшим (или по крайней мере не меньшим) значением z . Смежное допустимое базисное решение отличается от рассматриваемого только одной базисной переменной. Для получения смежного допустимого базисного решения симплекс-метод превращает одну из базисных переменных в небазисную и вводит одну из небазисных переменных в базис. Необходимо выбрать базисную и небазисную переменные так, чтобы замена одной из них на другую давала максимальное приращение целевой функции. В любом допустимом базисном решении базисные переменные положительны, а небазисные равны нулю. Следовательно, превращение небазисной переменной в базисную приводит к увеличению ее значения от нуля до некоторой положительной величины. Вводимая в базис переменная должна давать улучшение значения z . Для выбора вводимой в базис переменной следует присвоить небазисной переменной значение, равное единице, и вычислить изменение целевой функции. Для иллюстрации рассмотрим небазисную переменную 59

xs .

Пусть ей присвоено значение, равное единице; исследуем получаемое при этом изменение целевой функции. Заметим сначала, что, поскольку рассматриваются только смежные допустимые базисные решения, остальные базисные переменные по-прежнему равны нулю, так что систему (2.8) можно переписать в следующем виде:

x1  a1s xs  b1 , xr  ars xs  br ,

(2.10)

xm  ams xs  bm . Из системы (2.10)при возрастании

xs от 0 до 1 получается но-

вое решение

xi  bi  ais , i  1,

, m,

xs  1, x j  0, j  m  1,

, n, j  s.

Новое значение целевой функции равно

z   ci  bi  ais   cs . m

i 1

Обозначим через

cs , приращение величины z , получающееся при увеличении значения xs на единицу. Таким образом, cs  Новое значение z  Старое значение z    ci  bi  ais   cs   ci bi cs   ci ais . m

i 1

Величина переменной

cs

m

m

i 1

i 1

(2.11)

называется относительной оценкой небазисной

xs , тогда как cs

левой функции. Если

является исходной оценкой

cs  0 , то

xs

в це-

можно добиться увеличения зна-

чения целевой функции Z, вводя переменную

xs

в базис. Уравне-

ние (2.11), определяющее относительную оценку, известно под названием правила скалярного произведения, которое можно 60

сформулировать следующим образом [62]. Относительная оценка небазисной переменной x j , обозначаемая через c j , равна

c j  c j  CB P j , где

CB

соответствует оценкам базисных переменных, а P j пред-

ставляет собой j -й столбец в канонической системе, соответствующей рассматриваемому базису. Если относительные оценки небазисных переменных допустимого базисного решения задачи максимизации отрицательны или равны нулю, то решение оптимально. Ясно, что если c j  0 для всех небазисных переменных, то любому смежному допустимому базисному решению соответствует значение целевой функции, не превосходящее уже достигнутого. Отсюда следует, что в рассматриваемой точке имеется локальный максимум. Поскольку целевая функция z линейна, локальный максимум совпадает с глобальным. Предположим, что cs  max c j  0 и, следовательно, начальное допустимое базисное решение неоптимально. Поскольку величина

cs

переменной

положительна, при увеличении значения небазисной

xs

на единицу z возрастает на

личение значения

xs ,

cs . Чем больше уве-

тем больше приращение величины z , по-

этому необходимо, чтобы значение другой стороны, при увеличении

xs

xs

было возможно большим. С

значения остальных базисных

переменных также меняются, и их новые значения находятся из системы (2.10):

xi  bi  ais xs , i  1, Если

ais  0 ,

то

xi

возрастает вместе с

значение xi не меняется. Однако если убывает с ростом ченном увеличении

xs

,m.

xs ,

ais  0 ,

(2.12) а при

ais  0

переменная

xi

и становится отрицательной при неограни-

xs , а решение — недопустимым. Таким обра61

зом, максимальное допустимое значение

xs

определяется следую-

щим правилом:

max xs  min bi / ais  .

(2.13)

ais 0

Пусть br / ars  min bi / ais  . ais 0

Следовательно, при увеличении менная

xr

xs

до br / ars базисная пере-

первой среди базисных переменных обращается в нуль

и заменяется в базисе переменной

xs . Переменная xs

становится

новой базисной переменной в r -й строке, причем новое допустимое базисное решение имеет вид

xi  bi  ais  br / ars  при всех i, xs  br / ars ,

x j  0 для всех остальных небазисных переменных , j  m  1,

, n, j  s.

Поскольку при увеличении ставляет

cs ,

(2.14)

xs

на единицу приращение z со-

для нового решения общее приращение z равно

 cs   br / ars   0 .

Уравнение (2.13), на основании которого определяются базисные переменные, выводимые из базиса, носит название правила минимального отношения. При использовании симплекс-метода вычисление относительных оценок всех небазисных переменных текущего допустимого базисного решения (2.14) и проверка его оптимальности проводятся до тех пор, пока не будут выполнены условия оптимальности. При реализации симплекс-метода возможны ситуации неограниченного оптимума, а также вырожденности и зацикливания. Рассмотрим кратко суть этих явлений. Говорят, что задача линейного программирования имеет неограниченный оптимум, если у нее нет конечного оптимального решения. В таком случае целевая функция стремится к  для 62

задачи максимизации и к  для задачи минимизации. При использовании симплекс-метода для решения задачи с неограниченным оптимумом при помощи правила минимального отношения невозможно определить, какая переменная должна быть выведена из базиса. В этом случае все коэффициенты в ограничениях при вводимой в базис переменной неположительные. Такая ситуация возникает, если в уравнении (2.13) нет ни одного конечного отношения и вводимая в базис небазисная переменная может неограниченно возрастать, не нарушая множество ограничений. Отсюда следует, что у задачи ЛП нет конечного оптимального решения. Допустимое базисное решение, в котором одна или более базисных переменных равны нулю, называется вырожденным допустимым базисным решением. Допустимое базисное решение, в котором все базисные переменные положительны, называется невырожденным. Вырожденность может присутствовать в первоначальной формулировке задачи (если некоторые правые части равны нулю); она может также возникать при симплексных вычислениях. Последнее происходит, когда, по крайней мере, две строки имеют одинаковые значения минимального отношения, вычисляемого по правилу (2.13). При вырожденности допустимого базисного решения минимальное отношение может оказаться нулевым. В этом случае изменение базиса не влияет на значение целевой функции. В действительности встречаются задачи, в которых несколько итераций симплекс-метода не приводят к улучшению значения z . Это означает, что выполняются трудоемкие вычисления с симплексными таблицами, не дающие реального эффекта. Естественно, что при таких условиях вычислительная эффективность симплекс-метода снижается. Еще более важен вопрос, возможно ли выполнение неограниченного числа итераций симплекс-метода без продвижения к оптимуму. Имеются примеры, показывающие, что теоретически такая ситуация возможна. В этом случае вычисления по симплексалгоритму зацикливаются и не приводят к оптимальному решению. Это явление носит название классического зацикливания или просто зацикливания. В практических задачах чаще всего зацикливания не происходит, несмотря на вырожденность некоторых промежуточных решений. Однако описаны случаи, когда при реализации на ЭВМ симплекс, метод не давал оптимального решения. Такая ситуация возникала в основном в силу особенностей программного 63

обеспечения симплекс-метода. Это явление в работе [64] названо машинным зацикливанием, поскольку оно возникает из-за особенностей конкретных ЭВМ. При решении таких задач на ЭВМ других типов всегда оказывалось возможным добиться сходимости к оптимуму. Особенности решения задач линейного программирования на ЭВМ Многие практические задачи анализа сложных систем и управления ими сводятся к задачам линейного программирования с сотнями ограничений и тысячами управляемых переменных. Ясно, что их следует решать при помощи цифровых вычислительных машин. Симплекс-метод в табличной форме представляет собой итеративную процедуру, применимую к любой задаче ЛП, что делает его удобным для реализации на ЭВМ. Многие фирмы, специализирующиеся по выпуску ЭВМ и разработке математического обеспечения для больших компьютерных систем, предоставляют машинные программы для решения задач ЛП [62]. Такие программы различаются по стоимости, удобству обращения с ними, сложности и другим характеристикам. Необходимость решения задач ЛП большей размерности привела к разработке очень сложных вариантов программ решения задач ЛП, называемых системами математического программирования (например, IBM MPSX-370, CDC APEX III, Management Systems MPS-III). Они снабжены мощными средствами обработки данных, аналитическими средствами и дают возможность решать задачи с числом ограничений порядка 8—16 тысяч и практически неограниченным числом переменных. При помощи системы MPS-III была успешно решена задача ЛП с 50 тыс. ограничений. Задачи линейного программирования с 5 тыс. и более ограничений следует рассматривать как задачи большой размерности. Возможность успешного решения таких задач зависит от их структуры и других специфических особенностей. Встречающиеся на практике задачи ЛП обычно содержат от 500 до 1500 ограничений и несколько тысяч переменных. Задачу с такими параметрами можно без труда решить при помощи любой из функционирующих вычислительных систем, снабженных математическим обеспечением для решения задач ЛП. Если пользователю приходится часто решать задачу ЛП, то экономически целесообразно приобрести соответствующий пакет программ. Если же такая необходимость возникает редко, то выгоднее воспользовать64

ся услугами квалифицированного ВЦ или арендовать терминал, связанный с крупным вычислительным центром, располагающим математическим обеспечением для решения задач ЛП. Исчерпывающий обзор характеристик современных программ решения задач ЛП, включающий информацию об управлении входными данными, содержится в работе [65]. В работе [66] дается обзор вычислительных алгоритмов для систем математического программирования. В качестве основного метода решения задачи ЛП во всех коммерческих программах используются симплекс-метод и его многочисленные модификации. В работе [67] рассмотрены вопросы математического обеспечения задач ЛП, включая программы генерации матриц и выдачи данных. На раннем этапе развития математического обеспечения задач ЛП при реализации симплекс-метода на ЭВМ проводились вычисления над всеми элементами симплексной таблицы, как описано выше. При таком подходе требовался быстрый доступ ко всем элементам симплексной таблицы, что возможно лишь при условии хранения полной таблицы в оперативной памяти ЭВМ. При решении задачи ЛП большой размерности хранить в оперативной памяти всю симплексную таблицу невозможно, вследствие чего решение таких задач оказалось малоэффективным и дорогостоящим. Поэтому потребовались усовершенствования симплексного метода, которые позволили более эффективно организовывать вычислительный процесс на ЭВМ. В настоящее время во всех программах для решения задач ЛП используется модифицированный симплексметод, весьма эффективный при реализации на ЭВМ. В модифицированном симплекс-методе используются те же основные идеи, что и в обычном симплекс-методе, однако при его реализации нет необходимости пересчитывать всю симплексную таблицу на каждой итерации. В связи с этим требуются меньшие вычислительные ресурсы и время, поскольку информация, необходимая для перехода от одного допустимого базисного решения к другому, формируется на основе анализа первоначальной системы уравнений. В настоящее время в большинстве коммерческих программ для решения задач ЛП используется модифицированный симплекс-метод. Поскольку при реализации модифицированного метода требуется меньший объем оперативной памяти, появляется возможность решения задач большей размерности. Детально рассмотрен модифицированный симплекс-метод и его преимуществами в работе [68]. Имеется также ряд упрощенных вариантов реализации симплекс-метода на ЭВМ. Один из них основан на правиле 65

выбора переменной, вводимой в базис. Обычно машинные программы реализации симплекс-метода не производят вычисления всех элементов строки C для определения небазисной переменной, которая должна войти в базис. Такие вычисления могут потребовать больших затрат машинного времени при решении задачи большой размерности, содержащей несколько тысяч небазисных переменных. Как правило, относительные оценки вычисляются последовательно до получения первой положительной оценки; соответствующая переменная вводится в базис, что позволяет избежать дальнейших вычислений элементов строки C . Такая стратегия может привести к росту числа итераций при решении задачи, однако выигрыш во времени на каждой итерации обычно компенсирует рост их числа. Вычислительная эффективность симплекс-метода Специалистами в области математического программирования неоднократно указывалось, что с теоретической точки зрения симплекс-метод нельзя считать эффективным, поскольку на каждой его итерации происходит переход к смежному допустимому базисному решению (т. е. изменяется только одна базисная переменная). Интуиция подсказывает, что алгоритм, анализирующий несмежные решения (т. е. заменяющий несколько базисных переменных на каждой итерации), должен работать быстрее. Тем не менее, ни один из вариантов симплекс-метода при этом не дает ощутимого выигрыша во времени вычислений. В силу этого обстоятельства симплекс-метод считается наилучшей процедурой для решения задач ЛП. В работе [69] дается обзор модификаций симплексметода. Вычислительную эффективность симплекс-метода можно оценить при помощи следующих двух параметров: числа итераций (допустимых базисных решений), необходимых для достижения оптимального решения, и общих затрат машинного времени, требуемого для решения задачи. Проводились многочисленные исследования зависимости вычислительной эффективности от числа ограничений и числа переменных задачи. Опыт решения большого числа практических задач показывает [62], что число итераций при решении задачи ЛП в стандартной форме с m ограничениями и n переменными обычно заключено между m и 3m , среднее число итераций равно 2m . На практике можно рассматривать величину 2  m  n  как верхнюю границу 66

числа итераций, хотя встречаются задачи, для которых эта закономерность нарушается. Установлено, что требуемое для решения машинное время меняется приблизительно пропорционально кубу числа ограничений 3

задачи m . Например, если задача А имеет вдвое больше ограничений, чем задача В, то машинное время решения задачи А будет примерно в восемь раз больше. Число ограничений задачи влияет на вычислительную эффективность сильнее, чем число переменных. Поэтому не рекомендуется увеличивать число ограничений; следует отбрасывать излишние ограничения при разработке модели ЛП. Алгоритм, предложенный советским математиком Хачияном [70], вызвал большой интерес. Он представляет собой важное теоретическое достижение, однако малоперспективен для решения задач ЛП на ЭВМ [71]. В последние годы появилось много алгоритмов, представляющих собой модификации метода внутренних точек, основанные на идеях Кармаркара [72]. Метод Кармаркара решения задачи линейного программирования Каждый шаг симплекс - метода представляет собой определенную процедуру пересчета элементов симплекс - таблицы и вычисления на нем ограничены числом m  n арифметических операций. В настоящее время для всех известных вариантов симплекс метода построены примеры, экспоненциальные по числу итераций,



min n, m



2 когда перебирается более 2 вершин (на практике такие плохие примеры довольно редки). Необходимость решения задачи ЛО большой размерности обусловила поиски других подходов. Были предложены алгоритмы, которые строятся на принципиально новой идее непрерывной трактовки задачи ЛО, когда вместо перебора конечного числа угловых точек осуществляется поиск решения в исходном пространстве переменных, причем траектория поиска не проходит через угловые точки. Такой уход от дискретной трактовки задачи позволил построить полиномиальные алгоритмы ЛО. Целый класс таких алгоритмов создан на основе применения метода Ньютона к задаче минимизации специальных потенциальных функций, построенных по аналогии с барьерными в задачах нелинейной оптимизации.

67

Подобное преобразование используется в методе Кармаркара, который имеет полиномиальное время выполнения. Это означает, что если задача ЛО имеет размерность N , то существуют положительные числа a и b такие, что для любого N задача может быть решена за время не больше a  N . Размерность N может быть определена числом символов, необходимых для описания задачи, например, десятичных цифр, задающих входные данные. Предварительно исходная задача ЛО преобразуется к специальной форме в матричной записи: найти min z  CX при ограничениях b

A  X  0; E  X  x1  x2  ...  xn  1; X  0 , где A  R

mn

(2.15)

1  m  n  ;

векторы–столбцы

X, C  Rn ; E  1, 1,...,1  Rn . T

Кроме того, точка X

 0

1 1  , , n n

T

1 ,  будет допустимой n

точкой, а оптимальное значение целевой функции равно нулю. Показано, что любая задача ЛО может быть представлена в такой форме. Обозначим через S множество точек X , удовлетворяющее ограничениям E  X  1 и

X  0 ; S является  n  1 -мерным

единичным симплексом. Алгоритм определяет последовательность внутренних точек

X

k

многогранника решений (2.15), удовлетворяющих строгому k 

неравенству X  0 ; переход к последующей внутренней точке производиться в преобразованном пространстве в направлении проекции антиградиента потенциальной функции на подпространство задачи. Кармаркаром предложено специальное центрирующее преобразование

fk

пространства

Rn  Rk , привязанное к точке

X   S , X   0 , которое задается формулой k

k

68

yj 

x j / x kj

x r 1

при этом переменные ство, а переменные

,

r n

x1 , x2 ,... xn

y1 , y2 ,... yn

r

(2.16)

k r

/x

определяют исходное простран-

– преобразованное пространство.

Преобразование

f k определяет взаимнооднозначное соответствие между точками X  S и Y  S ; оно оставляет все вершины единичного симплекса S на своих местах и перемещает текущую k точку в центр симплекса, поскольку X  T T 1 1 1 k k 0 Y    f k X    , , ,   X   . n n n Для каждой точки Y  S имеется единственная точка X  S ,

 

 

удовлетворяющая формуле Y  f k  X  ; эта точка X определяет1

ся обратным преобразованием X  f k

xj 

Y :

x kj  y j r n

x r 1

k r

.

(2.17)

 yr

Сходимость алгоритма обеспечивается, если величина шага перемещения в преобразованном пространстве равна

h



n  n  1

,   1 (если  

1 , то алгоритм имеет полино4  k 1

миальное время выполнения). При таком шаге новая точка Y остается внутренней точкой преобразованного единичного сим k 1

плекса; в тоже время соответствующая ей точка X остается в допустимой области, поскольку направление её перемещения совпадает с проекцией антиградиента потенциальной функции на допустимое подпространство.  k 1

 k 1

0 Чтобы точка X удовлетворяла условию A  X необходимо и достаточно, чтобы выполнялось соотношение 69

A  Dk  Y k 1  0 , где Dk – диагональная n  n матрица с диагоk

нальными элементами xi . Следовательно, чтобы  k 1

лось допустимой точкой, перемещение Y  Y удовлетворять следующим ограничениям:

X

k 1

остава-

k  Y  должно

A  Dk  Y  0; ET  Y  0. В преобразованном пространстве исходная целевая функция 1

будет иметь вид z  C  f k T

 Y  и направление ее антиградиента

k Y  можно оценить как

в

– Dk

 

 

 C  z X k   X k  ; при

z X k   0 оно стремится к Dk  C . Как будет показано далее, антиградиент потенциальной функции в точке Y  k

равен

Dk  C .

1  E также n

Чтобы в направлении перемещения скорость ее

уменьшения была максимальной, единичный вектор V в этом направлении должен быть решением задачи оптимизации

max  CT Dk V при ограничениях: A  Dk  V  0,

ET  V  0,

V  1.

Вектор

V может быть найден проектированием вектора антиградиента Dk  C на преобразованное линейное подпространство  A  Dk  допустимой области, определяемое матрицей A    . МатT  E  рица проектирования определяется соотношением P 1 V P  I  AT A  AT A , проекция V  P  Dk  С , V  . V





После выполнения очередного шага в преобразованном про k 1

k 

Y странстве вычисляется следующая точка Y используя обратное преобразование (2.17),  k 1

X

1 k

 f (Y

 k 1

). 70

 h  V и, находится

При условии окончания расчетов включает этапы: 1. Выбирается начальная

1 1 0 X    , , n n

z   схема алгоритма допустимая

точка

T

1 ,  , полагается k  0 . n k  T 2. Останов, если C  X   . Иначе переход к 3.  k 1 3. Определяется следующая точка Y в преобразованном k  k 1 единичном симплексе по формуле Y  Y   h  V , где T

1 1 1 k Y   f k  Xk    , ,...,  во всех итерациях. n n n  k 1 4. Находится точка X в исходном пространстве по фор k 1 мулам обратного преобразования (1.65) X  f k1 (Y k 1 ) . Значение k увеличивается на 1 и осуществляется возврат к 2. Рассмотренный метод оптимизации продемонстрируем на примере. Найти

min z  x1  3x2  3x3

при ограничениях

x2  x3  0,

x1  x2  x3  1, xi  0, i  1,3. T

1 1 1 ,  3 3 3

Задача уже приведена к требуемой форме; точка  ,

является допустимой и оптимальное значение целевой функции z  0 . Пусть значение   0,1 ; выполним первую итерацию по методу Кармаркара. T

1 1 1   , ,  , полагаем k  0 . 3 3 3 1  0 2. В точке X z   0,1 поэтому осуществляется переход 3 1. X

 0

к п.3. 71

3. A   0, 1,  1 ,

1  3 D0   0   0 

0   0  ; A  D0  0, 1 ,  1 ; 3 3   1  3

0 1



3

0



0 1 1  3 3 ; A 1 1 1  

9 0  2  ; AA   0 1  3   2 1 1  3 3  3 1 T T  1 1 ; P  I  A  AA , A 1 6 6   3   1 1 1  6 6   3 1   3 CT  1,3, 3 ; D0  C  1  ;    1  2 0 ; AA   9  0 3  



T







1 Y   1

3



1



P  D0  C   2 Полагая

T

9

1

9

1

. T

9

  0, 25 , получается новая точка h  1

3

1



T

3





0, 25  2



T

1 1 9 9 9 . 3 2 2 1 1 9 9 9

72

0, 25 3 2

Поскольку

2

9

1

1  9 9



1 Y   1



 1

4

3

3

8

1

 9   9   9   96 , то 1  6 3 3   3 72 72 72 2

2

2

 1

2

 1

T

3

3

T

. 8 T

Используя формулу (1.65), находится

1 1 1 1 3 4 x   3 41 ; 4 1 1  1 3  1 3 S 3 4 3 8 3 8 1 3 1 3 x12  3 8  3 ; x31  3 8  3 . 8 8 S S T 1 3 3 Таким образом, точка X  1 4 8 8 . Новое зна1 1



чение целевой функции

 



 

1 1 0 z X   1  3  3  3  3   z X   1 . 4 8 8 4 3 Затем осуществляется переход ко 2-ой итерации и т.д. Для анализа сходимости этого алгоритма может быть примеn

  X   n  ln CT  X   ln x j ,

нена потенциальная функция

j 1

используемая как барьерная функция в нелинейном программировании. После преобразования

fk

потенциальная функция

 k Y

имеет вид

 k  Y     f k1  Y    n  ln CT  Dk  Y   ln y j   ln x kj . Градиент

 k Y

функции





T

n

n

j 1

j 1

в

точке

Y  1  ET  1 1 ... 1 равен Dk  C , т.е. направление n n n n 73

шага Y противоположно градиенту функции

 k  Y  , спроекти-

рованному на подпространство задачи. За каждую итерацию значение функции уменьшается на величину   0 ; после k итераций, если отрицательное значение

 

 X k 

достаточно велико, вели-

k 

чина z  C  X будет близка к нулю. Отметим, что применение метода Ньютона с логарифмической барьерной функцией к задаче ЛО приводит к задаче нелинейной оптимизации вида T

n

Найти

min F  X   CT  X  r   ln x j j 1

при ограничениях где

A  X  B, X  0,

r  0 – скаляр. Для данной точки X , удовлетворяющей условиям A  X  B

и

X > 0, при заданном r направление поиска есть направление

вектора

V   2 F  X   F  X  . Это направление проектиру1

A  X  0 так, чтобы следующая точка оставалась в подпространстве A  X  B . Параметр r определятся как функция X и уменьшается на каждой итерации. ется на пространство

Рассмотренный алгоритм теоретически является полиномиальным по трудоемкости, однако на практике часто дает результаты намного худшие, чем симплекс-метод. Поэтому нет смысла преувеличивать значение многолетних безуспешных попыток многих специалистов построить полиномиальные алгоритмы для NP-полных задач. Такие попытки без привлечения принципиально новых геометрических идей заведомо обречены на неудачу. Что же касается новых геометрических идей, следует особо отметить появившиеся относительно недавно полиномиальные алгоритмы для задачи линейного программирования; первый из них построил Л.Г.Хачиян [70] в 1979 году. Геометрическая природа этих алгоритмов совершенно иная по сравнению с 74

традиционными, что определяет их привлекательность в связи с изложенным в данной работе. Ниже представлен новый полиномиальный алгоритм решения задачи ЛП [73], основанный на геометрическом подходе.

75

Решение задачи линейного программирования методом главных граней Известные методы решения задачи ЛО определяют оптимальную точку путем перебора вершин или внутренних точек выпуклого многогранника и требуют большого объема вычислений. Эти методы не учитывают геометрическую структуру многогранника решений M , заданного в стандартной форме m общими и n координатными ограничениями–неравенствами. Возможен другой подход к решению задачи ЛО, использующий свойства выпуклого многогранника M . Находится n главных гиперплоскостей (ГП) ограничений, пересечение которых дает оптимальную вершину. В соответствии с теоремой Фаркаша нормаль целевой ГП находиться в конусе, положительно натянутом на нормали главных ГП. Признаком определения главной ГП является минимальный угол между нормалями ГП ограничения и ГП целевой функции. В особых случаях такой угол может иметь ГП срезки главного ребра, что приводит к появлению квазиоптимальной вершины. Такая вершина затем используется для нахождения оптимальной точки. При определении главной ГП соответствующее ограничение – n

неравенство становится уравнением

L :  a j x j  b этой ГП. j 1

Из полученного уравнения одна из переменных, например

xk , мо-

жет быть выражена через остальные n  1 переменных и подставлена в остальные неравенства и целевую функцию. Таким образом, задача ЛО сводится к подобной задаче в странстве

 n  1

– мерном про-

R n1 (главная ГП проектируется на координатную ГП

xk  0 ). В этом подпространстве область допустимых значений будет содержать проекции точек главной гиперграни, ограниченной ГП, являющимися проекциями пересечений главной ГП с соседними гиперплоскостями (рис 2.1, 2.2). 76

x3 n1

5

P

6

L1

n3 n0

4 D

X* 1

n2

3

F3

2

L2 F2

F1 Целевая гиперплоскость

P

x2

x1

Рис. 2.1. Главная и соседние грани Процедура может быть повторена, после

S итераций замена

S неравенств равенствами преобразует исходное пространство в * пространство размерности q  n  S . Искомая точка X будет принадлежать

последовательности

получаемых

главных

ГП

L  , q  n 1, n  2,...0 , поскольку она остается точкой касания q s

главных граней, задаваемых преобразованными ГП ограничений, и преобразованной целевой функции ( q – размерность ГП, грани). После

n итераций из уравнений ГП L1n1 , Ln22 ,... L0n , перену-

мерованных в порядке нахождения главных ГП, находятся координаты искомой

X* .

77

x2

n6

4'

5' 6' 7' φ

3' X*

n0

2 '

1'

n2

n1

0

x1

Рис. 2.2. Лишние ограничения При подстановке x j в уравнения ГП, несмежных с главной ГП, появляются лишние (зависимые) ограничения. Если на следующей итерации они выбираются как главные, то полученное решение будет находится вне многогранника. Система неравенств – ограничений становится несовместной. Таким образом, решение задачи ЛО сводится к определению совместности системы неравенств в узком смысле (останется ли система совместной при добавлении к ней одного из противоположных неравенств) или к выявлению смежности гиперграней. Нахождение главных граней проводится путем вычисления косинуса угла

i

между нормалями

ni

ГП ограничений и нормалью

n   c1 , c2 ,..., ck  из соотношения

cosi 

 n  ni  n ni

78

(2.18)

или алгебраической проекции

prni n  вектора n на вектор

 n  ni 

(2.19)

ni

ni .

Главной ГП соответствует максимальная величина этих соотношений. Объем вычислений при расчете

cos i

или prn n неi

значителен и поэтому сложность реализации метода зависит от способа определения смежных гиперграней. Целесообразен предварительный анализ задач, для которых многогранники допустимых решений изоморфны (т.е. имеют ту же матрицу смежности) стандартным многогранникам: n -мерному кубу, симплексу со срезанными вершинами, призме или пирамиде, построенным на этих многогранниках. Представляет практический интерес класс многогранников, эквивалентных n -мерному кубу. Куб задается ограничениями

xi  1, пары

xi  0, i  1, n , все множество граней разбивается на несоседних xi =0 и xi =1 . Два многогранника считаются

эквивалентными, если существует соответствие между их гранями, которое не нарушает отношение соседства. n -мерный куб является пересечением двух конусов

K0

и

KA

с вершинами в начале коор-

динат и точке A 1,1,...,1 , причем каждое ребро конуса вершину на одной из граней конуса

K0

имеет

KA .

Такое формальное описание n -мерного куба позволяет сформулировать признак эквивалентности исходного многогранника M и куба [74]: каждая ГП L j общего ограничения M отсекает на одной из координатных осей j отрезок минимальной длины относительно отрезков, отсекаемых другими ГП. В этом случае пара несмежных граней определяется просто: L j и x j  0 . На практике это означает, что каждая переменная наиболее существенна в одном из ограничений. Рассмотрим пример, поясняющий сказанное. Найти max z  x1  x2  x3 , n  1,1,1 при ограничениях 79

L1 : x1 

1 1  1 1 x2  x3  1, n1  1, ,  ; 2 2  2 2

1 1 1 1 L2 : x1  x2  x3  1, n2   ,1,  ; 2 3  2 3 1 1 1 1  L3 : x1  x2  x3  1, n3   , ,1 ; 3 3 3 3  L3 j :  x j  0, j  1,3. 1. Проверка условия отсечения минимальных отрезков на осях. Оно выполняется: грань оси

x1 , L2

– на оси

x2 , L3

L1

отсекает минимальный отрезок на

– на оси

x3

Поэтому пары несмежных граней:

L3

и

(рис. 2.3).

L1 и x1  0 , L2

и

x2  0 ,

x3  0 .

2. Находим первую главную ГП, вычисляя проекции по фор-

1 1 1  2 2  2 2 , pr n  11 , муле (2.19). Имеем prn1 n  n2 7 1 1 3 1  4 4 5 . Максимальное значение prn1 n поэтому главная ГП prn3 n  11 1 1 L1 : x1  x2  x3  1 . Несмежная грань x1  0 исключается из 2 2 системы неравенств. 3. Подставляя x1  1 

1 1 x2  x3 , находим вторую главную 2 2

ГП. Задача принимает вид: найти max z 

1 1 1 1 x2  x3 , n   ,  при ограничениях: 2 2 2 2

80

3 1 1 3 1  L2 : x2  x3  , n2   ,  ; 4 12 2  4 12  1 5 2 1 5 L3 : x2  x3  , n3   ,  ; 6 6 3 6 6  x2  0, n5   1, 0  ;  x3  0, n6   0,  1 .

Рис. 2.3. Отсечение минимальных отрезков на осях

3 , поэтому вторая 26 главная ГП L3 : x2  5x3  4 , несмежная грань x3  0 исключаетМаксимальное значение имеет

prn3 n 

ся. 4.

Подставляя

x2  4  5x3 , решаем задачу: 81

найти

max z  2 x3

при ограничениях 5 x3  4,

44 x3  10 , т.е. 3

15 4 15 является оптимальным; находим  x3  . Значение x3  22 5 22 13 1 1 4 18 , x1  1  x2  x3  x2  4  5 x3  , zmax  , т.е. 22 2 2 11 11 *  4 13 15  план X  , ,  является оптимальным.  11 22 22  Рассмотрим применение свойств полярных многогранников для определения несмежных граней. В общем случае матрица смежности гиперграней может быть определена при анализе полярного многогранника, заданного n  m вершинами: две гиперграни исходного многогранника смежны, если соответствующие вершины полярного многогранника соединены ребром. Использование матрицы смежности особенности удобно на практике при многократном решении задач, в которых изменения входных коэффициентов не изменяет матрицу смежности; при этом коэффициенты целевой функции могут варьироваться произвольным образом. Задачу ЛО удобно записать в векторной форме: найти

max z   n  X  при общих ограничениях  ni  X   bi , i  1, m

x j  0 j  1, n; X, ni , n  R n с ортами e j . Полярный к исходному многогранник Q является выпуклой n оболочкой образующих его точек X i  i и бесконечно удаленbi 1 ных точек Y j   e j ,   0 (предполагается bi  0, m  n ;  и координатных

эти ограничения не являются принципиальными). Множество

Fi 

(или Gi  ) граней исходного многогранни-

ка M (или Q) является частично упорядоченным множеством с операцией принадлежности  ; для него справедливы законы рефлективности, антисимметричности и транзитивности. Существует 82

Fi   Gi  , являющейся анти-

отображение множества граней

изоморфизмом, т.е. из соотношения

F1 F2

следует

G2 G1 .

Конус

Q в каждой вершине X i имеет своими образующими вектора (ребра) X j  X i , j  i и бесконечные полуоси с направляющими векторами

e j , j  1, n в вершины Y j . Если один из

этих векторов имеет разложение с неотрицательными коэффициентами по другим векторам, то он будет внутренним в конусе, т.е. не является ребром Q, а соответствующие его вершинам гиперграни M несмежны. Задача определения смежности распадается на две подзадачи нахождения смежных координатных и общих гиперграней (все координатные гиперграни смежны) и смежных между собой общих граней. Каждая вершина

X i имеет n  1

общее ребро (вектор)

X j  X i и n координатных ребер с направляющими векторами

ek . Пусть ребро e j

в вершине

X

имеет разложение

e j   k  X k  X     k ek . k 

(2.20)

K j

Тогда для решения первой подзадачи (в случае, если вершина имеет максимальную

j -ю координату) можно использовать необходимый признак: если по каждой координате t  j хотя бы у одного из векторов разложения (2.20) X k  X имеется поло-

X

жительная

компонента,

 k  0, k  0

то

существует

т.е. общая гипергрань

L

разложение

с

несмежна с координат-

ной гипергранью x j  0 и смежна с остальными координатными гипергранями. Пусть множество афиннонезависимых вершин гиперплоскость Если

n0  0 ,

L0 :  X  n0   b0  0 , b0  0 , то ребра

Xi

определяют

с нормалью

n0 .

e j находятся в полупространстве 83

 X  n0   b0

и общие ребра являются ребрами

Q, т.е. все общие

гиперграни исходного многогранника смежны между собою. Если вектор ребро

er

n0

имеет отрицательную r -ю компоненту, то

находится в полупространстве

 X  n0   b0

и могут

появиться несмежные общие гиперграни. Из разложения проекции

p вектора er на гиперплоскость L0 p    k  X k  X 

(2.21)

k 

можно сделать вывод о несмежности общих гиперграней. Например, если в разложении (2.21) имеется только один положительный коэффициент

s  0,

т.е. общие гиперграни

то ребро

X s  X

и

несмежны.

Ls

L

будет внутренним в

Q,

В общем случае для установления смежности общих гиперграней требуется дополнительный учет влияния остальных ребер e j ,

er

т.к. их замыкание с ребром с образующими векторами

pi  ei  вектора

a0 i a0 r

даст в пересечении с ГП

pi , i  r

L0

конус

и средним вектором

p:

 er , p   a0 r  a0i  pi , где a0i - компоненты ir

n0 .

Следует отметить, что при переходе к разложению (2.20) в новой вершине всех

ребер

     k  .

X t коэффициенты разложения не изменяются для X k  X t , кроме ребра X  X t , причем Рассмотрим пример применения предлагаемого

k 

метода. Решить задачу распределения ресурсов (предполагается, что исходная система неравенств совместна и не содержит лишних ограничений): Найти

max z  3x1  4 x2  8x3  5x4  12 x5  2 x6 , n   3, 4,8,5,12, 2

84

при ограничениях

L1 : 3x1  2 x2  x3  6 x4  x5  x6  24, n1   3, 2,  1,6,1,1 ;

L2 : x1  6 x2  x3  2 x6  18,

n2  1,6,1,0,0, 2  ;

L3 : x4  2 x5  12,

n3   0, 0, 0,1, 2, 0  ;

L4 : 3x4  x5  12,

n4   0, 0, 0,3,1, 0  ;

L5 : 2 x1  x2  x3  24,

n5   2,1,1, 0, 0, 0  ;

L6 : 2 x3  x5  3x6  36,

n6   0, 0, 2, 0,1,3 ;

L6 j :  x j  0,

j  1, 6.

I. Определяем несмежные гиперграни. Находим координаты вершин полярного

многогранника

n Xi  i bi

1  9, 6,  3,18,3,3 , 72 1 X 2   a2i    4, 24, 4, 0, 0,8  , 72 1 X 3   a3i    0, 0, 0, 6,12, 0  , 72 1 X 4   a4i    0, 0, 0,18, 6, 0  , 72 1 X 5   a5i    6,3,3, 0, 0, 0  , 72 1 X 6   a6i    0, 0, 4, 0, 2, 6  , 72 X 1   a1i  

(подчеркнуты максимальные значения компонент).

85

1. Находим уравнение ГП проходящей

через

вершины

n0  X i  X 3   0, a06  1 .

L0 :  X  n0   b0  0, b0  0 ,

Xi ,

из

соотношения

Получим

n0   a0 j    3, 4;  0, 42; 7, 6; 1, 4; 2,8; 1 . Для второй отрицательной компоненты вычисляем проекцию вектора

e2

на ГП

L0 :

 n n prL0  e2   e2   e2  0  0 ; для упрощения расчетов n0  n0  j  2, a0 j , 2 n0  2 принимаем p   prL0  e2    n0 a02  a02 , j  2.  M  a02  Имеем p   3, 4;  M ;  7,6;  1, 4;  2,8;  1 . 2. Вершины

X1

и

X2

имеют больше одной максимальной

координаты. В этом случае разложение (2.21) в

X1

или

будет

X2

иметь одну отрицательную компоненту во всех общих ребрах, поэтому гиперграни

L1

и

L2

смежны со всеми координатными.

Находим несмежные гиперграни. Для вершины

X6

имеем

1

опускаем): X1–X6=(9, 6, –7, 18, 1, –3), X2– 72 X6=(4, 24, 0, 0, –2, 2), X3–X6= =(0, 0, –4, 6, 10, –6), X4– X6=(0, 0, –4, 18, 4, –6), X5–X6=(6, 3, –1, 0, –2, –6). (множитель

Поскольку только 3-я компонента неположительна во всех ребрах, гипергрань L6 не смежна с координатной гипергранью x3=0 (третья координата вершины X6 максимальна). Вершины X3, X4 имеют максимальные координаты a35, a44. Аналогичный расчет выявляет пару несмежных гиперграней: L3 и x5=0, L4 и x4=0. Использование вторых по величине максимальных координат дает несмежные гиперграни L5 и x1=0, L5 и x3=0, но эти пары 86

требуют дополнительной проверки. 3. Поскольку

n0

имеет вторую отрицательную координату,

находим разложение векторов

p и pi в вершине X2 с максимальной координатой a22 по ребрам: X1–X2=(5, –18, –7, 18, 3, 5), X3–X2=(–4, –24, –4, 6, 12, –8), X4–X2=(–4, –24, –4, 18, 6, –8), X5–X2=(2, –21, –1, 0, 0, –8), X6–X2=(–4,–-24, 0, 0, 2, –2). Разложение (2.21) для p имеет коэффициенты 1=3,6, 3= =–1, 4=–3,3, 5=–0,2, 6=9,5. Нетрудно показать, что если разложение (2.21) содержит два положительных коэффициента, то соответствующие гиперграни будут несмежны. Поэтому при 1>0, 6>0 гиперграни L1 и L6 несмежны. Аналогично, из разложения вектора p6   0,  M ,0,0,0,  1 следует несмежность

L4 и L5,

 4  4,3 120  0

Дополни-

поскольку только

и

5 1 8  0 .

тельное разложение в вершине X5 дает возможность определить несмежность L5 и L6. Действительно, коэффициенты разложений векторов

p6

и

p4

по ребрам

Xi–X5 равны для p6 : 1=–4; 2=

=–11,3; 3=–1; 4=4,3; 6=–3; для p4 : 1=4; 2=–10,5;

3=1; 4=–8,4; 6=13.

Вектор p  p6  0, 6 p4 имеет только *

один положительный коэффициент

 6* ,

поэтому гиперграни

L5 и

L6 не будут смежными. Определение главных гиперграней Пары несмежных гиперграней:

(L1,L6), (L4,L5), (L5,L6),

(L5,L7), (L6,L9), (L4,L10), (L3,L11).

1. Находим первую главную ГП, вычисляя проекции по формуле (2.19). Максимальное значение имеет

5  24 29 5 и первая главная ГП L3 : x4  2 x5  12 .  5 5 Несмежная гипергрань x5=0 исключается. prn3 n 

2. Находим вторую главную ГП, подставляя из уравнения 87

L53 : x4  12  2 x5 в другие неравенства. Задача в пятимерном пространстве принимает вид:

найти max z=3x1+4x2+8x3+2x5+2x6, n   3, 4,8, 2, 2  при ограничениях

3x1  2 x2  x3  11x5  x6  48; x1  6 x2  x3  2 x6  18; x5  6; 5 x5  24; 2 x1  x2  x3  24; 2 x3  x5  3x6  36;  x j  0, j  5.

Максимальная по величине

prn3 n  3 6 , вторая главная ГП

x3  24  2 x1  x2 . Исключаются L45 : 2 x1  x2  x3  24 , несмежные гиперграни L4, L6; несмежность с x1=0 требует про-

верки. 3. Задача на третьей итерации после подстановки x3 имеет формулировку: найти max z=–13x1–4x2+2x5+2x6 при ограничениях

5x1+3x2–11x5+x6 –24; –x1+5x2+2x6–6; x56; 2x1+x224; –x20; –x60. Максимальная по величине prn7 n  13 , но x1=0 исключается, поскольку второе неравенство

5x2+2x6–6 становится невыполнимым и выбирается следующая 3 по величине prn8 n  4 ; третья главная ГП L8 : x2  0 . 4. На четвертой итерации после подстановки x2=0 решается задача: найти max z=–13x1+2x5+2x6 при ограничениях: 5x1– 11x5+x6–24; –x1+2x6–6; x56; x112; –x60. Четвертая 2 главная ГП L2 :  x1  2 x6  6, x1  6  2 x6 . 5. На пятой итерации после подстановки x1 решается задача: найти max z=2x5–24x6 при ограничениях: –11x5+11x6–54; x56; x63; –x60; пятая главная ГП L112 : x6  0 . Так как x56, то max z достигается при x5=6. Главные ГП: L3, L5, L8, L2, L12, L4. Решение задачи определяется в обратном порядке по итераци88

ям подстановками в уравнения главных ГП:

x5  6, x6  0,

x1  6  0  6, x2  0, x3  24  12  0  12, x4  12  2  6  0,

т.е. X  6, 0,12, 0, 6, 0  ,

max z  186 .

Сделаем дополнительную проверку правильности выбора главных ГП. Если выбрана неглавная ГП (срезка) Lc, то добавление

 

неравенства L   z  z X  0 делает ограничение

Lc0 зави-

симым в квазиоптимальной точке X  6, 0,12, 0, 6, 0  . Согласно теореме Фаркаша Lc будет являться комбинацией ограничений Li0 с неотрицательными коэффициентами. Находим

5L5  24L12  L  13L2  6L3  69L8  L10 ,

поэтому

вершина

X не является оптимальной и L5 как зависимое ограничение может быть исключено из системы неравенств. Повторив вычисления, определяем

X

*

 2, 4;0;15,6; 2, 4; 4,8;0 

точку

 z  X   201;6 как точку пере*

   0 имеет

сечения ГП L3, L6, L2, L12, L8, L4. Для L  z  z X место

L  3L2  4,7 L3  0,1L4 

разложение

14L8  2,5L6  11,5L12 ,

*

поэтому в соответствии с теоремой

*

Фаркаша вершина X является точкой оптимума. Из теоремы двойственности следует дополнительный способ отсеивания лишних ограничений: неглавным гиперграням прямой задачи соответствуют главные гиперграни двойственной и обратно. Поэтому неглавная гипергрань прямой задачи может быть исключена, если по минимальному углу выбрана соответствующая гипергрань двойственной задачи. Метод главных граней может быть применен для построения эффективного эвристического алгоритма поиска целочисленных решений задачи ЛО. Если известна оптимальная вершина, полученная любым способом, то могут быть выделены главные ограничения – неравенства и с их учетом уже методом главных ГП заново решена задача ЛО. При расчете на каждой итерации системы неравенств будут задавать k-мерные (k=n–1, n–2, … 1) конусы, получаемые по89

следовательным исключением главных ребер. В окрестности оптимальной вершины конусы определяют k-мерные граничные области (k-гранные углы), линейные оболочки которых имеют минимальное расстояние от целевой ГП. Так как конусы спроектироваk ны на координатные подпространства R той же размерности, то в обратном порядке по итерациям легко находятся допустимые целочисленные точки вблизи оптимальной вершины. Фиксируя найденные значения переменных, на каждой итерации вычисляются новые целочисленные координаты и за n итераций можно получить достаточно хорошее целочисленное решение. Для задачи рассмотренного выше примера целочисленное решение находится из цепочки соотношений для итераций, начиная с последней; точка

X 0  3, 0,15, 0, 6, 0  , z  X 0   201 является опти-

   201, 6

мальной, т.к. z X

*

и, следовательно, для целочислен-

ных решений zmax=201. Рассмотрим использование свойств системы однородных неравенств – ограничений для выбора главных гиперграней. Простым эвристическим способом выбора главных гиперграней с достаточно эффективным исключением лишних ограничений является переход к задаче ЛО с системой однородных неравенств – ограничений

 ni X   bi xn1  0, X  0, 0  xn1  1

в простран-

n+1

стве R . Исходный многогранник преобразуется в пирамиду. Пирамида – это выпуклая оболочка исходного многогранника, лежащего в ГП

xn1  1

и являющимся основанием пирамиды, а также

точки  вне этой ГП, называемой апексом,  - нуль в R . Боковые грани пирамиды являются выпуклыми оболочками граней многогранника и нуля, их матрица смежности эквивалентна матрице смежности исходного многогранника. Целевая функция пирамиды определяется из условий: 1) оптимальные вершины пирамиды и многогранника должны совпадать; 2) главными гипергранями на всех итерациях, кроме последней, должны выбираться боковые грани пирамиды (выбор основания сводит задачу к исходной). Этим условиям отвечает целевая функция, являющаяся выпуклой оболочкой оптимальной ГП z в смещенном подпространстве n+1

90

xn1  1 и нуля; она определяется формулой z   n  X   z*  xn1 , где

z*  max z . Оптимальное значение z*  0 . Поскольку велиz * заранее неизвестна, для выполнения условий делается пе-

чина реход к комбинированной (прямой и двойственной) задаче. Формулировка задачи в матричной форме имеет вид (X,Y,C,B – векторы-столбцы): T T T найти max F=C X-B Y при ограничениях AXB, –A Y–

C, X0, Y0.

Решением задачи будет точка

X

*

, Y *  , где X * , Y * – реше-

ние прямой и двойственной задач; оптимальное значение F равно нулю. Аналогично этой задаче формулируется эквивалентная с дополнительной координатой чениях

w: найти max F  qTU при ограни-

U  0,

AU  qw  0;

U   X , Y  ; q   C, B  ; T

T

w  0, w  1 ,

где

 0  AT  A  , причем опти0  A

мальное значение F  0 . Так как оптимальная целевая ГП касается этой пирамиды по ребру

;  X , Y ,1 , то будет выполняться второе условие при *

*

игнорировании выбора основания w=1. Решение этой задачи методом граней эквивалентно решению исходной задачи с системой n+1 однородных неравенств в пространстве R с исключением выбора основания

xn1  1 ;

однако априорное значение величины

max F  0

дает дополнительные возможности отбраковки лишних ограничений. При большой размерности эту задачу целесообразно решать с использованием определенной по полярному многограннику частичной матрицы смежности. Следует отметить, что при решении практических задач метод граней эффективнее других, поскольку учитывает специфику задачи, что не делается при применении известных методов. Геометрический подход к решению задач ЛО должен стимулировать исследования в n-мерной геометрии по таким вопросам 91

как смежность гиперграней, изоморфизм многогранников и т.п., которые ранее не были широко востребованы. Кроме того, такой подход открыл возможность использования разнообразных комбинаторных и эвристических алгоритмов [75]. 2.1.2. Методы нелинейной оптимизации Ïîñòàíîâêà çàäà÷è íåëèíåéíîé îïòèìèçàöèè Îáùàÿ çàäà÷à ôîðìóëèðóåòñÿ òàê: Íàéòè

íåëèíåéíîé

min z=f(x1, x2, ... xn)

îïòèìèçàöèè

(ÍËÎ)

(2.22)

ïðè îãðàíè÷åíèÿõ

gi(x1, x2, ... xn)=0, i  1, k ,

(2.23)

gi(x1, x2, ... xn)  0, i  k  1, m , (2.24) ãäå ôóíêöèè f(x1, x2, ... xn), gi(x1, x2, ... xn), i  1, m â îáùåì ñëó÷àå íåëèíåéíû. Çàäà÷à ËÎ ìîæåò ðàññìàòðèâàòüñÿ êàê ÷àñòíûé ñëó÷àé çàäà÷è ÍËÎ, åñëè ôóíêöèÿ z è óðàâíåíèÿ (2.23), (2.24) ëèíåéíû. Ëþáîé âåêòîð X=(x1, x2, ... xn), óäîâëåòâîðÿþùèé óñëîâèÿì (2.23) è (2.24), íàçûâàåòñÿ äîïóñòèìûì âåêòîðîì (òî÷êîé, ïëàíîì, ðåøåíèåì). Çàäà÷à íàõîæäåíèÿ ìàêñèìóìà ôóíêöèè f(X) ñâîäèòñÿ ê çàäà÷å ìèíèìèçàöèè ôóíêöèè – f(X), ïîýòîìó ìîæíî ðàññìàòðèâàòü çàäà÷è îïðåäåëåíèÿ ìèíèìóìà. Îïòèìàëüíûå ðåøåíèÿ ìîãóò áûòü ãëîáàëüíûìè, êîãäà îíè ïðåäñòàâëÿþò íàèìåíüøåå çíà÷åíèå ôóíêöèè f(X) íà äîïóñòèìîì ìíîæåñòâå Õ, èëè ëîêàëüíûìè, ïðåäñòàâëÿþùèå ñîáîé íàèìåíüøåå çíà÷åíèå ôóíêöèè â îêðåñòíîñòè íåêîòîðîé òî÷êè Õ*. Àëãîðèòìû ðåøåíèÿ çàäà÷ ÍËÎ äàþò ëèøü ëîêàëüíî îïòèìàëüíûå ðåøåíèÿ, òàê êàê ïðè ïîèñêå îïòèìàëüíîé òî÷êè Õ* îíè çàâèñÿò â îñíîâíîì îò ëîêàëüíûõ ñâîéñòâ öåëåâîé ôóíêöèè è îãðàíè÷åíèé. 92

 çàäà÷å ËÎ ìíîæåñòâî ðåøåíèé ÿâëÿåòñÿ âñåãäà âûïóêëûì ñ êîíå÷íûì ÷èñëîì óãëîâûõ òî÷åê; èõ ïåðåáîð çà êîíå÷íîå ÷èñëî øàãîâ äàåò îïòèìàëüíîå ðåøåíèå.  çàäà÷àõ ÍËÎ âûïóêëîñòü ìíîæåñòâà ðåøåíèé è êîíå÷íîñòü ÷èñëà óãëîâûõ òî÷åê íåîáÿçàòåëüíû (íà ðèñ. 2.4. ìíîæåñòâî ðåøåíèé íåâûïóêëî; íà ðèñ. 2.5. âûïóêëî, íî èìååò áåñêîíå÷íîå ÷èñëî óãëîâûõ òî÷åê).

Рис. 2.4. Невыпуклое множество решений Ýòè îñîáåííîñòè îïðåäåëÿþò òðóäíîñòü çàäà÷ ÍËÎ, êîòîðûå íå èìåþò îáùåãî ìåòîäà ðåøåíèÿ. Äëÿ óçêîãî êëàññà çàäà÷ ïðè ïîèñêå ýêñòðåìóìà ïðèãîäíû ìåòîäû ìàòåìàòè÷åñêîãî àíàëèçà.

93

Рис. 2.5. Выпуклое множество решений Ìåòîä ìíîæèòåëåé Ëàãðàíæà Èçâåñòíî, ÷òî íåîáõîäèìûì óñëîâèåì áåçóñëîâíîãî ýêñòðåìóìà ôóíêöèè f(x1, x2, ... xn), íåïðåðûâíîé âìåñòå ñî ñâîèìè ïåðâûìè ïðîèçâîäíûìè, ÿâëÿåòñÿ ðàâåíñòâî íóëþ âñåõ å¸ ÷àñòíûõ ïðîèçâîäíûõ 1-ãî ïîðÿäêà â òî÷êå ýêñòðåìóìà Õ*:

f  x1*, x2 *,... xn *  0, x j

j  1, n

(2.25)

èëè, ÷òî ýêâèâàëåíòíî, ðàâåíñòâî íóëþ âåêòîðà ãðàäèåíòà ôóíêöèè f(X*) â ýòîé òî÷êå Õ*=(x1*, x2*, ... xn*):

 f f f  f  X *   , ,...  0.  X  X *  x  x  x 2 n   1

(2.26)

Òî÷êà Õ* íàçûâàåòñÿ ñòàöèîíàðíîé òî÷êîé. Îäíà èç ôîðìóëèðîâîê (êðèòåðèé Ñèëüâåñòðà) äîñòàòî÷íîãî óñëîâèÿ òîãî, ÷òî Õ* åñòü òî÷êà ëîêàëüíîãî ìèíèìóìà (ìàêñèìóìà), âêëþ÷àåò òðåáîâàíèå: ìàòðèöà G(X) âòîðûõ ïðîèçâîäíûõ (ìàòðèöà Ãåññå, ãåññèàí)

 d2 f X   2  dx1  d2 f X   G  X    dx22  ...  2  d f X   2  dxn

d2 f X  d2 f X   ...  dx12 dx2 dx12 dxn  d2 f X  d2 f X    ... dx22 dx2 dx22 dxn   ... ... ...  d2 f X  d2 f X   ...  dx12 dx2 dxn2 

(2.27) â ýòîé òî÷êå äîëæíà áûòü ïîëîæèòåëüíî (îòðèöàòåëüíî) îïðåäåëåííîé. Äåéñòâèòåëüíàÿ êâàäðàòíàÿ ìàòðèöà

94

 a11  a A   21  ...   an1

a12 a21 ... an 2

... a1n   ... a2 n  ... ...   ... ann 

áóäåò ïîëîæèòåëüíî îïðåäåëåííîé, åñëè âñå å¸ óãëîâûå ìèíîðû

1  a11  0,  2 

a11

a12

a21 a22

 0 , … n  A  0

(2.28)

ïîëîæèòåëüíû; ìàòðèöà À îòðèöàòåëüíî îïðåäåëåíà, åñëè óãëîâûå ìèíîðû ÷åðåäóþò çíàêè, ò.å. 10, 30, 0<   1,



(1   )



 1 , ñòåïåíü îäíîðîäíîñòè  >0.

Ýòè óñëîâèÿ îáåñïå÷èâàþò òðåáîâàíèÿ (4.5), (4.6). Çàïèñü (4.15) ðåøåíèÿ óðàâíåíèÿ (4.13) ÿâëÿåòñÿ îáùåïðèíÿòûì âèäîì ÏÔ êëàññà CES. 211

Ïðè âûâîäå óðàâíåíèÿ (4.15) èñêëþ÷àþòñÿ ñëó÷àè  =0 (  =) è =1(1/=). Ïðè =1 ðåøåíèå óðàâíåíèÿ (4.13) äàåò ôóíêöèþ Êîááà-Äóãëàñà; äëÿ  = 0 ïðåäåëüíûì ïåðåõîäîì  0 () èç ôîðìóëû (4.15), èñïîëüçóÿ ïðàâèëî Ëоïèòàëÿ, ïîëó÷àåì

lim   lim  K    (1   ) L  

 

 

 / 

;

 ln  K    (1   ) L   lim ln   lim        (4.16)

 (ln K )  K    (1   ) L  ln L   lim     K    (1   ) L   ln K , если K  L  , т.е. lim   min  K  , L  .    ln L, если L  K Ïðè  =1 èç ôîðìóëû (4.16) ñëåäóåò ôóíêöèÿ

Ëåîíòüåâà P=min {aK,bL}, ãäå êîýôôèöèåíòû a è b èìåþò ñìûñë ôîíäîîòäà÷è è ïðîèçâîäèòåëüíîñòè òðóäà. Ñîîòíîøåíèå (4.16) èìååò ñëåäóþùóþ òðàêòîâêó: ðàâåíñòâî  =0 îçíà÷àåò îòñóòñòâèå çàìåùåíèÿ ôàêòîðîâ è ïðè KL èñïîëüçóåòñÿ ðåñóðñ, èìåþùèéñÿ â ìèíèìàëüíîì êîëè÷åñòâå.

Ðèñ. 4.1.

Ðèñ. 4.2. 212

Íà ðèñ. 4.1, 4.2 íà ïëîñêîñòè K, L ïðèâåäåíû èçîêâàíòû (ëèíèè óðîâíÿ F(K, L) = const) äëÿ ôóíêöèè Ëåîíòüåâà P=min(aK,bL) è CES-ôóíêöèè (4.15) äëÿ  >0. Ïðåäåëüíàÿ íîðìà çàìåíû N K  

dK â òî÷êå A (ðèñ.4.2) dL

ðàâíà òàíãåíñó  óãëà íàêëîíà êàñàòåëüíîé ê ýòîé èçîêâàíòå. Ïðè ïåðåìåùåíèè ïî èçîêâàíòå èç òî÷êè À â òî÷êó  íàêëîí êàñàòåëüíîé ìåíÿåòñÿ, êàê è îòíîøåíèå

s

K  tg  . L

Âåëè÷èíà

1





dN K ds / NK s

õàðàêòåðèçóåò

êðèâèçíó èçîêâàíòû â òî÷êå À, òàê êàê îïðåäåëÿåò íà ñêîëüêî ïðîöåíòîâ èçìåíèòñÿ çíà÷åíèå tg ïðè èçìåíåíèè tg íà 1%. 4.4 Ïîñòðîåíèå производственных функций Âûáîð âèäà ÏÔ, çàâèñÿùåé îò êîíå÷íîãî ÷èñëà ôàêòîðîâ ïðîèçâîäñòâà, îïðåäåëÿåòñÿ ïî íàáëþäàåìûì çíà÷åíèÿì ïîêàçàòåëåé äåÿòåëüíîñòè îáúåêòà. Òàê, åñëè ïî ñòàòèñòè÷åñêèì äàííûì (Pt, Kt, Lt) çà ðàçíûå ïåðèîäû âðåìåíè âû÷èñëÿåòñÿ ðàçíîñòíûé àíàëîã ïîêàçàòåëÿ ýëàñòè÷íîñòè (4.7) ïî ïåðâîìó ôàêòîðó K

Pt  P Kt è  Kt  K Pt

ïðè ìàëîé ðàçíîñòè Kt–K åãî âåëè÷èíà êîëåáëåòñÿ îêîëî çíà÷åíèÿ , òî ýòîò ôàêò ñëóæèò àðãóìåíòîì äëÿ âûáîðà â êà÷åñòâå ÏÔ ôóíêöèè Êîááà-Äóãëàñà. Èñïîëüçóÿ ýêîíîìè÷åñêóþ èíòåðïðåòàöèþ ïîêàçàòåëåé ýëàñòè÷íîñòè ,, ìîæíî âûáðàòü êëàññû ÏÔ â çàâèñèìîñòè îò ñîîòíîøåíèÿ èõ âåëè÷èí. Òàê, áîëüøàÿ âåëè÷èíà / ãîâîðèò î òîì, ÷òî óâåëè÷åíèå íà 1% ðåñóðñà K äàåò ñóùåñòâåííî áîëüøåå ïðèðàùåíèå îáúåìà ïðîèçâîäñòâà ïî ñðàâíåíèþ ñ óâåëè÷åíèåì íà 1% ðåñóðñà L. Íà ïðàêòèêå ýòî îçíà÷àåò, ÷òî ïðîèçâîäñòâî ðàáîòàåò â óñëîâèÿõ äåôèöèòà ïåðâîãî ðåñóðñà.  ðåàëüíûõ ïðîèçâîäñòâàõ ñîîòíîøåíèå / ìîæåò ìåíÿòüñÿ ïðè èçìåíåíèÿõ âåëè÷èí ðåñóðñîâ. Êëàññ ôóíêöèé CES 213

ÿâëÿåòñÿ ïðèìåðîì ÏÔ, ó÷èòûâàþùèõ ýòè äâà ðåæèìà ðàáîòû ïðîèçâîäñòâà. Èñïîëüçóÿ ñîîòíîøåíèå (4.15), ïîëó÷èì

 ( s) 

F K  K       . (4.17)   1   K P  K  1    L 1 s



Ãðàôèê ôóíêöèè (s) ïðè  >1 ïðèâåäåí íà ðèñ. 4.3.

Ðèñ. 4.3. Çíà÷åíèå s íàõîäèòñÿ èç óñëîâèÿ

   1  s     1   1 

 (s)  0 1

è ðàâíî



.

Íà ãðàôèêå âèäíû äâå õàðàêòåðíûå îáëàñòè – îáëàñòü (0, s ) äåôèöèòà ðåñóðñà K è îáëàñòü ( s ,) äåôèöèòà ðåñóðñà L. ×àñòî ðåàëüíîå ïîâåäåíèå 1(s) òàêîâî, ÷òî lim 1 ( s)   0 , ò.å. äåôèöèò ðåñóðñà L íîñèò íå ñòîëü s 

âûðàæåííûé õàðàêòåð (ðèñ.4.3.). Òàêàÿ ôóíêöèÿ ïðåäñòàâèìà âûðàæåíèåì 1(s) = (s) + 0, åé ñîîòâåòñòâóåò îäíîðîäíàÿ ÏÔ, óäîâëåòâîðÿþùàÿ óñëîâèþ 214

f1  1 ( s). f1

s

(4.18)

Ðàçäåëÿÿ ïåðåìåííûå, íàõîäèì

ln f1  

1 ( s) s

Ïîñêîëüêó ôóíêöèè f, òî

ds  

(s)

 ( s) s



ds  

0 s

ds.

ýëàñòè÷íîñòü

íåêîòîðîé

CES-

s  f  f   (s) , ò.å. ln f  

a( s) ds, s

f1  A1  f  s0 .

Åñëè f(s) – CES-ôóíêöèÿ îäíîðîäíîñòè , òî ñ ó÷åòîì ñîîòíîøåíèé (4.11) è (4.15)

P 1  A  K    (1   ) L P  Ôóíêöèÿ

P1

èìååò

 / 

 K 0 L0 .

ñòåïåíü

(4.19)

îäíîðîäíîñòè

   0   0     1 . Èññëåäîâàíèå ðåàëüíûõ ïðîèçâîäñòâ ïîêàçàëî, ÷òî îíè ðàáîòàþò â òðåõ ðåæèìàõ: ñ äåôèöèòîì îäíîãî èç ðåñóðñîâ è íîðìàëüíîì. Ãðàôèê (s) äëÿ òàêîãî ðåæèìà ðàáîòû ïðîèçâîäñòâà äàí íà ðèñ. 4.4. Îáëàñòè (0,s1), (s2,) îòðàæàþò ðåæèì ðàáîòû ñ äåôèöèòîì ðåñóðñîâ K è L ñîîòâåòñòâåííî, îáëàñòü (s1, s2) îòíîñèòñÿ ê íîðìàëüíîìó ðåæèìó ðàáîòû. Çàâèñèìîñòü (s) ìîæíî ïðåäñòàâèòü â âèäå

 (s)  1 (s)   2 (s)  0 , ãäå 1(s), 2(s) – ýëàñòè÷íîñòè íåêîòîðûõ CES-ôóíêöèé, 0 – ïîñòîÿííàÿ (ýëàñòè÷íîñòü ôóíêöèè Êîááà-Äóãëàñà). Ïîýòîìó åé ñîîòâåòñòâóåò ôóíêöèÿ P2, ðàâíàÿ

P2  A 1 K  1  (1  1 )  L 1    2 K  2  (1   2 )  L 2  215

1 / 1

 2 / 2



 K 0 L0 ,

ñòåïåíü åå îäíîðîäíîñòè

   1  2  1 .

Ðèñ. 4.4. Äàëåå â ðàçä. 4.5 - 4.8 ðàññìàòðèâàþòñÿ ìîäåëè, â êîòîðûõ èñïîëüçóþò-ñÿ ÏÔ: îïòèìèçàöèÿ ïðèáûëè, âûïóñêà ïðîäóêöèè, èçäåðæåê ïðîèçâîäñòâà ïðè íàëè÷èè ðàçëè÷íûõ îãðàíè÷åíèé. Ïðîèçâîäñòâåííûå ôóíêöèè ïðèìåíÿ-þòñÿ òàêæå â äèíàìè÷åñêèõ ìîäåëÿõ, îïèñûâàþùèõ ðîñò âûïóñêà â çàâèñè-ìîñòè îò èíâåñòèöèé è ïîòðåáëåíèÿ, ïðè îïòèìèçàöèè ïðîöåññà ðàñïðåäåëå-íèÿ êàïèòàëîâëîæåíèé (ðàçä. 5.3, 5.4). Î÷åâèäíî, ÷òî ïî ìåðå óòî÷íåíèÿ è óñëîæíåíèÿ ìîäåëåé áóäåò ðàñøèðÿòüñÿ è êëàññ èñïîëüçóåìûõ ÏÔ. 4.5. Íåêîòîðûå çàäà÷è îïòèìèçàöèè. Îñíîâíûå пîëîæåíèÿ  òåîðèè ôèðìû ïðèíÿòî ñ÷èòàòü, ÷òî åñëè îíà ôóíêöèîíèðóåò â óñëîâèÿõ ÷èñòîé (ñîâåðøåííîé) êîíêóðåíöèè, òî âëèÿòü íà ðûíî÷íûå öåíû íå ìîæåò, ôèðìà "ñîãëàøàåòñÿ" ñ öåíàìè íà ðåñóðñû è ïðîäóêöèþ. Ïðåäïðèÿòèå ñòðåìèòñÿ ïîëó÷èòü ìàêñèìàëüíóþ ïðèáûëü, ìèíèìèçèðîâàòü çàòðàòû, èñïîëüçóÿ ðåñóðñû îïòèìàëüíûì îáðàçîì.  ðàññìîòðåííûõ íèæå òèïîâûõ çàäà÷àõ îïòèìèçàöèÿ ïðîâîäèòñÿ ïî äâóì âèäàì ðåñóðñîâ, ÷òî áåç ïîòåðè 216

îáùíîñòè ïîçâîëÿåò ïîëó÷èòü íàãëÿäíóþ ýêîíîìè÷åñêóþ èíòåðïðåòàöèþ ïîëó÷àåìûõ ðåøåíèé.  îáùåì ñëó÷àå ïîèñê ïàðàìåòðîâ, ïðè êîòîðûõ ïðîèçâîäñòâåííûé ïîêàçàòåëü f(x1,x2) (ïðèáûëü, îáúåì âûïóñêà ïðîäóêöèè è ò.ï.) ïðèíèìàåò ìàêñèìàëüíîå çíà÷åíèå, ñâîäèòñÿ ê ðåøåíèþ çàäà÷è ÍËÎ: íàéòè max f(x1, x2) ïðè îãðàíè÷åíèÿõ gi(x1, x2) 0, x1 0, x2 0, i  1, m , (4.20) ïðè÷åì ôóíêöèè gi(x1,x2), f(x1,x2) âîãíóòû íà çàäàííîì ìíîæåñòâå X (ïîëîæèòåëüíîì îðòàíòå ïëîñêîñòè) è âûïîëíÿåòñÿ óñëîâèå ðåãóëÿðíîñòè gi ( X )  0 äëÿ âñåõ ðàññìàòðèâàåìûõ íèæå çàäà÷. Îïòèìàëüíîå ðåøåíèå îïðåäåëÿåòñÿ íà òåîðåìû Êóíà-Òàêêåðà:

îñíîâàíèè

L L (0)  0,  x j  0, i gi ( x1 , x2 )  0, i  0, x j x j (4.21) i  1, 2, i  1, m,

ãäå ôóíêöèÿ Ëàãðàíæà

L(1

m , x1 , x2 )  f ( x1 , x2 )   i gi ( x1 , x2 ). i

 ðåàëüíûõ çàäà÷àõ ìîãóò áûòü çàäàíû ýêîíîìè÷åñêè îáîñíîâàííûå îãðàíè÷åíèÿ (4.22) x1 > 0, x2 >0, (4.22) ò.å. îïòèìàëüíûå ðåøåíèÿ íå ñîäåðæàò çíà÷åíèé x1 = 0 è x2 = 0.  ýòîì ñëó÷àå ñîîòíîøåíèÿ (4.21) ïðèíèìàþò áîëåå ïðîñòîé âèä:

L L   0, i gi ( x1 , x2 )  0, i  0, i  1, m. (4.23) x1 x2

Íà ðèñ.4.5. ïðèâåäåí ãðàôèê âîãíóòîé ôóíêöèè f(x1, x2).  òî÷êå M0(0,x20) îíà äîñòèãàåò ìàêñèìóìà ïðè îãðàíè÷åíèè x1 0; åñëè çàäàíî óñëîâèå x1> 0, îïòèìàëüíîãî ðåøåíèÿ íå ñóùåñòâóåò. 217

Òî÷êè ýêñòðåìóìà ìîãóò ëåæàòü âíóòðè îáëàñòè G èëè íà åå ãðàíèöàõ, îïðåäåëÿåìûõ àêòèâíûìè îãðàíè÷åíèÿìè g1(x1, x2) = 0, g2(x1, x2) = 0.

Ðèñ. 4.5. Ðåøåíèå, â êîòîðîì x1=0 èëè x2=0, óêàçûâàåò íà íåöåëåñîîáðàçíîñòü èñïîëüçîâàíèÿ ñîîòâåòñòâóþùåãî ðåñóðñà. Ïðè íàõîæäåíèè îïòèìàëüíûõ ðåøåíèé îáû÷íî ïîëàãàþò, ÷òî äëÿ ÏÔ F(x1, x2) èìåþò ìåñòî óñëîâèÿ (4.5). Îãðàíè÷åíèÿ (4.22) è (4.5) ìîãóò áûòü çàâèñèìû; òàê, äëÿ ÏÔ Êîááà-Äóãëàñà ïðè x1> 0, x2> 0 âûïîëíÿåòñÿ è óñëо-âèå (4.5). Ñëåäóåò îòìåòèòü, ÷òî ïðè âûïîëíåíèè óñëîâèé (4.5) ëèíèè óðîâíÿ F(x1, x2)=Ci èëè x2=  (x1, Ci) ïðåäñòàâëÿþò óáûâàþùèå ôóíêöèè, ïðè÷åì ïðè Ci>Cj

 (x1,

Ci)>  (x1,

Cj). Äåéñòâèòåëüíî, äèôôåðåíöèðóÿ íåÿâíóþ ôóíêöèþ F(x1, x2) = C, èìååì (x2 =(x1, C)):

Fx1  Fx2  ( x1 ,C )  0

è òàê êàê ïî óñëîâèþ

Fx1  0 , Fx2  0 , òî  ( x1 , C )

îòðèöàòåëüíà è ôóíê-öèÿ Äèôôåðåíöèðóÿ ïîâòîðíî, íàõîäèì: 218

(x1,C)

óáûâàåò.

Fx1  2Fx1x2   ( x1 , C )  Fx2   2 ( x1 , C )  Fx2   ( x1 , C )  0. Ïî óñëîâèþ Fx1  0 è Fx2  0 è åñëè Fx1x2  0 (âñåãäà âûïîëíÿåòñÿ äëÿ ëèíåéíî-îäíîðîäíûõ ôóíêöèé), òî ïåðâîå, âòîðîå è òðåòüå ñëàãàåìûå îòðèöà-òåëüíû, ïîýòîìó  ( x1 , C )  0 , ò.å. ôóíêöèÿ (x1,C) âûïóêëà. Êðîìå òîãî,

Fx2  c ( x1 , C )  1 , îòêóäà ñëåäóåò íåðàâåíñòâî c ( x1 , C )  0 . Äëÿ ðåøåíèÿ çàäà÷ îïòèìèçàöèè ñ áîëüøèì êîëè÷åñòâîì ðåñóðñîâ àíàëèòè÷åñêèå ìåòîäû ìàëîïðèãîäíû è ïðèìåíÿþòñÿ ÷èñëåííûå ìåòîäû ïîèñêà ýêñòðåìóìà. 4.6. Çàäà÷à ìàêñèìèçàöèè ïðèáûëè Äîõîäîì R ôèðìû íàçûâàåòñÿ ïðîèçâåäåíèå p0•F(x1,x2) îáùåãî îáúåìà F(x1,x2) ïðîäóêöèè íà åå ðûíî÷íóþ öåíó p0. Èçäåðæêàìè ôèðìû ÿâëÿþòñÿ åå âûïëàòû â îïðåäåëåííîì èíòåðâàëå âðåìåíè. Äëÿ äâóõ âèäîâ ðåñóðñîâ çàòðàòû T îïðåäåëÿþòñÿ âûðàæåíèåì T = p1x1+p2x2, ãäå p1, p2 > 0 – ðûíî÷íûå öåíû íà ýòè ðåñóðñû. Âîãíóòàÿ ôóíêöèÿ P = F(x1, x2) ÿâëÿåòñÿ ïðîèçâîäñòâåííîé ôóíêöèåé ôèðìû, âûðàæàþùåé îáúåì âûïóñêàåìîé ïðîäóêöèè ÷åðåç çàòðàòû èñïîëüçó-åìûõ ðåñóðñîâ x1 è x2. Ïðèáûëü PR, ïîëó÷àåìàÿ ôèðìîé, ðàâíà PR(x1,x2) =R – T=p0•F(x1,x2) – p1x1 – p2x2 (4.24) è öåëü ôèðìû çàêëþ÷àåòñÿ â åå ìàêñèìèçàöèè ïóòåì ðàöèîíàëüíîãî ðàñïðåäåëåíèÿ çàòðà÷èâàåìûõ ñðåäñòâ.  ðåàëüíûõ óñëîâèÿõ ïîñòàíîâêà çàäà÷è ìàêñèìèçàöèè ïðèáûëè çàâèñèò îò âðåìåííîãî ïðîìåæóòêà âðåìåíè (äîëãîâðåìåííîãî èëè êðàòêîñðî÷íîãî), íà êîòîðîì ôèðìà ìàêñèìèçèðóåò ïðèáûëü. Äëÿ äîëãîâðåìåííîãî ïðîìåæóòêà âðåìåíè îãðàíè÷åíèÿ gi(x1, x2)  0 îòñóòñòâóþò è îïòèìàëüíûå çíà÷åíèÿ x10>0, x20>0 íàõîäÿòñÿ èç ñîîòíîøåíèé (2.5):

219

PR( x1 , x2 ) F ( x1 , x2 )  p0   p1  0, x1 x1 PR( x1 , x2 ) F ( x1 , x2 )  p0   p2  0, x2 x2 F ( x1 , x2 ) p1 F ( x1 , x2 ) p2 îòêóäà  ,  . x1 p0 x2 p0

(4.25)

Ðåøåíèå (x10, x20) íàçûâàåòñÿ ÷àñòè÷íûì ðûíî÷íûì ðàâíîâåñèåì ôèð-ìû äëÿ äîëãîâðåìåííîãî ïðîìåæóòêà. Èç ðàâåíñòâ (4.25) ñëåäóåò, ÷òî óñëîâèÿ (4.5) áóäóò âûïîëíÿòüñÿ. Ñëåäóåò îòìåòèòü, ÷òî äëÿ ÏÔ ÊîááàÄóãëàñà F(x1,x2)=x1•x21–, 00, p0=4,

p1=2, p2=8. Ôóíêöèè F(x1, x2) è PR(x1, x2) âîãíóòû äëÿ çàäàííûõ x1> 0, x2> 0. Íàõîäèì ñòàöèîíàðíûå òî÷êè èç ñîîòíîøåíèé (4.25). Èìååì

220

x  1 p1 1 F x1 p F  2   ,   2  2, îòêóäà x1 p0 2 x2 2 x2 p0 2 x1 x2  1 4 x2

1  1, x20  , 9

x10  4 x20 , x10 

16 . 9

Ðèñ. 4.6.

1 4 4 34    ; 3 3 3 9 16 1 40 ; Т ( x10 , x20 )  2   8   9 9 9 34 40 96 2 PR( x10 , x20 )  4     10 . 9 9 9 3

Íàõîäèì çíà÷åíèÿ F ( x1 , x2 )  2  0

0

Îïðåäåëÿåì ïî êðèòåðèþ Ñèëüâåñòðà (2.6), (2.8), èìååò ëè ôóíêöèÿ PR(x1,x2) ìàêñèìóì â òî÷êå (x10, x20). Íàõîäèì

x  1  2 PR x1  2 PR  2 PR  2 PR 1  2 ,  ,   . 2 2 x1 4 x1 x1 x2 4 x2 x2 x1x2 x2x1 4 x1 x2

221

Òàê êàê

1  

x2  1 4 x1 x1

 0,  2 

1  0 , òî 16 x1 x2 x2

ôóíêöèÿ PR (x1, x2) â còàöèîíàðíîé òî÷êå èìååò ãëîáàëüíûé ìàêñèìóì. Ñëåäóåò îòìåòèòü, ÷òî èç ñîîòíîøåíèÿ (4.25) ñëåäóåò

p F F /  1 , ò.å. â òî÷êå ðûíî÷íîãî ðàâíîâåñèÿ ôèðìû x1 x2 p2

îòíîøåíèå ïðåäåëüíûõ ïðîèçâîäèòåëü-íîñòåé ïî ðåñóðñàì ðàâíû îòíîøåíèþ èõ ðûíî÷íûõ öåí. Ëåâàÿ ÷àñòü ðàâåíñòâà âûðàæàåò ïðåäåëüíóþ íîðìó çàìåíû N1 ïåðâîãî ðåñóðñà âòîðûì N1 

F F , ïîýòîìó â òî÷êå ðûíî÷íîãî / x1 x2

ðàâíîâåñèÿ ýòà ïðåäåëüíàÿ íîðìà òàêæå ðàâíà îòíîøåíèþ p1/p2 ðûíî÷íûõ öåí íà ýòè ðåñóðñû. Заметим, ÷òî êàñàòåëüíàÿ â òî÷êå (x10,x20) ê èçîêâàíòå F(x1,x2)=C0, ãäå C0=F(x10,x20), ñîâïàäàåò ñ ïðÿìîé (èçîêîñòîé) T=p1x1+p2x2. Äåéñòâèòåëüíî, óãëîâûå êîýôôèöèåíòû êàñàòåëüíîé â ýòîé òî÷êå

è èçîêîñòû

x2  

ðàâåíñòâó (4.25). Íà ðèñ. 4.7. ïðèâåäåíà

p1 p T x1  , k2   1 p2 p2 p2 äëÿ

ôóíêöèè êðèâàÿ

F ( x1 , x2 )  2  x1 x2  x1  2 x1  8 x2 

k1 

Fx2  x10 , x20 

ðàâíû ñîãëàñíî

F(x1,x2)

34  C0 , 9

 Fx1  x10 , x20 

ïðèìåðà 1 èçîêâàíòû èçîêîñòà

40  T0 . 9

Âåëè÷èíû x10, x20, F(x10,x20), íàéäåííûå èç ñîîòíîøåíèé (4.25), ÿâëÿþòñÿ ôóíêöèÿìè öåí p0, p1, p2: x10 = f1(p0, p1, p2), x20 = f2(p0, p1, p2), F(x10, x20) = =f3(p0, p1, p2) 222

è íàçûâàþòñÿ ôóíêöèÿìè ñïðîñà íà ðåñóðñû è ïðåäëîæåíèÿ âûïóñêà. Ôóíêöèè ñïðîñà ÿâëÿþòñÿ îäíîðîäíûìè ñòåïåíè =0, òàê êàê öåëåâàÿ ôóíê-öèÿ çàäà÷è ìàêñèìèçàöèè ïðèáûëè ïðè îäíîâðåìåííîì èçìåíåíèè öåí â >0 ðàç PR (x1, x2) =p0F(x1, x2)–p1x1–p2x2 îòëè÷àåòñÿ îò óðàâíåíèÿ (4.24) ëèøü ìíîæèòåëåì . Íà êðàòêîâðåìåííîì ïðîìåæóòêå âðåìåíè ôèðìà èñïîëüçóåò îäèí èç ðåñóðñîâ, íàïðèìåð, âòîðîé x2, â îïðåäåëåííîì

îáúåìå

x2 .

Ïðè

ýòîì

óñëîâèè

çàäà÷à

ìàêñèìèçàöèè ñâîäèòñÿ ê îòûñêàíèþ ìàêñèìóìà ôóíêöèè

PR( x1 , x2 )

îäíîé

ïåðåìåííîé

x1

ñ

èñïîëüçîâàíèåì

óðàâíåíèÿ

dF ( x1 , x2 ) p1  . dx1 p0 Ïîëó÷åííîå

ðåøåíèå

( x1 , x2 )

îòëè÷àåòñÿ

îò

PR( x1 , x2 )  PR( x 01 , x20 ) , ÷òî

îïòèìàëüíîãî è çíà÷åíèå

ïîêàçàíî íà ðèñ. 4.6. Ëèíèÿ x2= x2 êàñàåòñÿ ëèíèè óðîâíÿ â òî÷êå M1, äîñòèãàÿ â íåé ìàêñèìàëüíî âîçìîæíîãî çíà÷åíèÿ

PR( x1 , x2 )  CK ; 0 1

îíî

0 2

âåëè÷èíû PR( x , x ) .

223

ìåíüøå

îïòèìàëüíîé

Ðèñ. 4.7. 4.7. Çàäà÷è îïòèìèçàöèè îáúåìà âûïóñêà è èçäåðæåê ïðîèçâîäñòâà I. Çàäà÷à ìàêñèìèçàöèè îáúåìà âûïóñêà ïðîäóêöèè ïðè îãðàíè÷åíèÿõ íà çàòðàòû èìååò ôîðìóëèðîâêó: íàéòè max F(x1, x2) ïðè óñëîâèÿõ p1x1 + p2x2  T èëè T – p1x1 – p2x2  0; x1  0, x2  0.

(4.26)

Ôóíêöèÿ F(x1, x2) è îãðàíè÷åíèå g(x1, x2) = T – p1x1 – p2x2 ÿâëÿþòñÿ âîãíóòûìè ôóíêöèÿìè, ïîýòîìó ñîãëàñíî ñîîòíîøåíèÿì (2.33) èìååì L( x1 , x2 )  F ( x1 , x2 )  1 x1  2 x2  3 (T  p1 x1  p2 x2 ) , (4.27)

L F L F   1  3 p1  0,   2  3 p2  0 , (4.28) x1 x1 x2 x2 1 x1  2 x2  0, 3 (T  p1 x1  p2 x2 )  0, k  0, k  1,3 . (4.29)

224

Ïîñêîëüêó óðàâíåíèé

Fx1  0 , Fx2  0 , 1  0 , 2  0 , òî èç

(4.28)

ñëåäóåò

3  0 ,

ò.å.

3  0

è

T=p1x1+p2x2. Ñîîòíîøåíèÿ (4.28), (4.29) ïðåîáðàçóþòñÿ ê âèäó

Fx1  1

Fx2  2



p1 , T  p1 x1  p2 x2 , 1 x1  2 x2  0. (4.30) p2

II. Çàäà÷à îïòèìèçàöèè èçäåðæåê ïðîèçâîäñòâà èìååò ôîðìóëèðîâêó íàéòè min p1x1 + p2x2 = T ïðè óñëîâèÿõ F(x1, x2) Ñ èëè Ñ–F(x1, x2) 0, x1 0, x2 0. (4.31) Ôóíêöèè T è Ñ – F(x1, x2) âûïóêëû è èç ñîîòíîøåíèé (2.24 à) âûòåкàåò L( x1 , x2 )  p1 x1  p2 x2  1 x1  2 x2  3 (C  F ( x1 , x2 )) ,(4.32)

L L L L  p1  1  3  0,  p2  2  3  0 ,(4.33) x1 x1 x2 x2

1 x1  2 x2  0, 3 (C  F ( x1 , x2 ))  0, k  0, k  1,3 .(4.34) Èç óðàâíåíèé (4.33), (4.34) ñëåäóåò, ÷òî, åñëè 3=0, òî 2=p2>0 è x1=x2=0, ò.å. ðåñóðñû íå èñïîëüçóþòñÿ. Ýòîò âûðîæäåííûé ñëó÷àé èñêëþ÷àåòñÿ, ïîýòîìó 3>0 è

1=p1>0,

Fx1

Fx2



p1  1 , F ( x1 , x2 )  C , 1 x1  2 x2  0. (4.35) p2  2

Ñîîòíîøåíèÿ (4.30), (4.35) âûÿâëÿþò äâîéñòâåííûé õàðàêòåð îáåèõ çàäà÷ ïðè x1>0, x2>0, ò.å. ïðè 1=2= 0. Îäèíàêîâûå ðàâåíñòâà

Fx1

Fx2



p1 p2

(4.36)

оïðåäåëÿþò îäíó è òó æå çàâèñèìîñòü ìåæäó ïåðåìåííûìè x1 è x2. Ïîýòîìó, åñëè ñîâïàäàþò çíà÷åíèÿ âåëè÷èí max F(x1, x2) = Ñ0 ïåðâîé çàäà÷è è îãðàíè÷åíèÿ F(x1, x2) = Ñ0 âòîðîé, òî çíà÷åíèå min p1x1 + p2x2= T 225

âòîðîé çàäà÷è áóäåò ðàâíî çíà÷åíèþ îãðàíè÷åíèÿ Ò ïåðâîé çàäà÷è è îáðàòíî. Èç ðàâåíñòâà (4.36) âûòåêàåò, ÷òî â òî÷êå îïòèìóìà M0(x10, x20) îáåèõ çàäà÷ èçîêîñòà p1x1+p2x2 = T êàñàåòñÿ èçîêâàíòû F(x1, x2) = Ñ0 (ðèñ 4.8).  ïåðâîé çàäà÷å çàäàåòñÿ èçîêîñòà è îïðåäåëÿåòñÿ çíà÷åíèå èçîêâàíòû, âî âòîðîé çàäà÷å íàîáîðîò. III. Ïðè ðàçëè÷íûõ çíà÷åíèÿõ çàòðàò T1,T2... òî÷êè M1(x10(T1), x20(T1)), M2(x10(T2), x20(T2)),... ìàêñèìàëüíîãî îáúåìà âûïóñêà îáðàçóþò êðèâóþ À, íàçûâàåìóþ äîëãîâðåìåííîé ëèíèåé ðàçâèòèÿ ôèðìû. Ïðè çàäàííûõ öåíàõ p1 è p2 âåëè÷èíà F (x10, x20) åñòü ôóíêöèÿ îò T: F (x10, x20) = f (T) è íàçûâàåòñÿ çíà÷åíèåì çàäà÷è. Çíàÿ f (T), ìîæíî îïðåäåëèòü ïðèáûëü â òåðìèíàõ èçäåð-æåê ïðîèçâîäñòâà PR (T) = p0 f(T) – T. Äëÿ ñëó÷àÿ êðàòêîâðåìåííîãî ïðîìåæóòêà, êîãäà îïðåäåëåí, íàïðèìåð, îáúåì x2 âòîðîãî ðåñóðñà çàäà÷à ñâîäèòñÿ ê ïîèñêó ìàêñèìóìà ôóíêöèè îäíîé ïåðåìåííîé F(x1, x2 ) ïðè îãðàíè÷åíèè p1x1 T – p x2 . Ñîãëàñíî óñëîâèþ (4.5) F ( x1 )  0 , ïîýòîìó ìàêñèìóì äîñòèãàåòñÿ â ãðàíè÷íîé òî÷êå

x1 

1 (T  p 2 x2 ) . Òàêîé æå âûâîä p1

ìîæíî ñäåëàòü, èñõîäÿ èç ãåîìåòðè÷åñêèõ ñîîáðàæåíèé (ðèñ. 4.8). ßñíî, ÷òî ïðè îäíèõ è òåõ æå èçäåðæêàõ ïðîèçâîäñòâà Ò îáúåì âûïóñêà ïðîäóêöèè íà äîëãîâðåìåííîì ïðîìåæóòêå íå ìåíüøå îáúåìà âûïóñêàåìîé ïðîäóêöèè íà êðàòêîñðî÷íîì ïðîìåæóòêå. IV.  çàäà÷å ìèíèìèçàöèè èçäåðæåê ïðîèçâîäñòâà ïðè çàäàííûõ çíà÷åíèÿõ öåí p1, p2 èçäåðæêè T(x10,x20) ÿâëÿþòñÿ ôóíêöèÿìè çíà÷åíèé C; âûðàæåíèå T(x10,x20) = T(C) = p1x10(C) + p2x20(C) íàçûâàåòñÿ çíà÷åíèåì çàäà÷è. ×åðåç ôóíêöèþ T(C) ìîæíî âûðàçèòü ïðèáûëü êàê ôóíêöèþ îáúåìîâ âûïóñêàåìîé ïðîäóêöèè PR(C) = p0C – T(C). (4.37)

226

Ðèñ. 4.8. Äëÿ êðàòêîâðåìåííîãî ïðîìåæóòêà âðåìåíè, êîãäà îïðåäåëåí, íàïðèìåð, îáúåì x2 âòîðîãî ðåñóðñà, çàäà÷à ñâîäèòñÿ ê ìèíèìèçàöèè çíà÷åíèÿ p1x1, ò.å. ðåñóðñà x1 ïðè îãðàíè÷åíèè F(x1, x2 ) С. Òàê êàê Fx1  0 , òî ôóíêöèÿ

F(x1,

x2 )

ÿâëÿåòñÿ

âîçðàñòàþùåé

è

ìèíèìàëüíîå çíà÷åíèå x1 îïðåäåëÿåòñÿ ñîîòíîøåíèåì F(x1, x2 )=C. Ïðè îäíîì è òîì æå îáúåìå âûïóñêà ïðîäóêöèè Ñ èçäåðæêè ïðîèçâîäñòâà íà äîëãîâðåìåííîì ïðîìåæóòêå íå áîëüøå èçäåðæåê ïðîèçâîäñòâà íà êðàòêîâðåìåííîì ïðîìåæóòêå âðåìåíè (ðèñ. 4.9). Ïðèìåð 2. Íàéòè

max F ( x1 , x2 )  x1  x2 ïðè óñëîâè-

ÿõ p1x1 + p2x2 T, x1> 0, x2> 0. Ôóíêöèÿ F(x1, x2) ÿâëÿåòñÿ âîãíóòîé. Èç ñîîòíîøåíèÿ(4.28) ñ ó÷åòîì óñëîâèÿ 1 = 2 = 0 íàõîäèì

F ( x1 , x2 ) 1 x2 F ( x1 , x2 ) 1 x1   3 p1 ,   3 p2 , p1 x1  p2 x2  T . x1 2 x1 x2 2 x2 227

Ðèñ. 4.9.

x2 p1 , ò.å.  x1 p2 p óðàâíåíèå äîëãîâðåìåííîé ëèíèè ðàçâèòèÿ x2  1 x1 . p2 Èç ïåðâûõ

Ïîäñòàâëÿÿ íàõîäèì

x10 

äâóõ

ðàâåíñòâ ñëåäóåò

çíà÷åíèå

x2

â

ïîñëåäíåå

ðàâåíñòâî,

 p0  T T T , x20  , F  x10 , x20   , PR T     1  T . 2 p p  2 p1 2 p2 2 p1 p2 1 2  

Ïðèìåð

3.

Íàéòè

min

p1x1

+

p2x2,

F ( x1 , x2 )  x1  x2  C0 , x1>0, x2>0. Èç ñîîòíîøåíèÿ (4.35) ïðè 1= 2= 0 íàõîäèì

Fx1 Fx2



x2 p1 p  , x2  1 x1 ; x1 p2 p2

228

åñëè

Ñ ó÷åòîì óñëîâèÿ

p1

x20  C0

p2

x1  x2  C0 ïîëó÷èì x10  C0

p2 , p1

. Çíà÷åíèå çàäà÷è T(x10, x20) ðàâíî

T ( x10 , x20 )  p1 x10  p2 x20  2C0 p1  p2 . Åñëè

Ñ0

ðàâíî

çíà÷åíèþ

çàäà÷è

(4.26)

T ïðèìåðà 2, òî âåëè÷èíà T(x10, x20) F ( x10 , x20 )  2 p1 p2 ðàâíà îãðàíè÷åíèþ T, ÷òî ñëåäóåò èç ïåðå÷èñëåííûõ âûøå ñâîéñòâ äâîéñòâåííûõ çàäà÷. 4.8. Îïòèìèçàöèÿ ïîòðåáèòåëüñêîãî âûáîðà Ïóñòü ïîòðåáèòåëü òðàòèò ñðåäñòâà íà ïðèîáðåòåíèå áëàã (ïðîäóêòîâ) x1,x2, ... xn. Íà ìíîæåñòâå òàêèõ íàáîðîâ (x1, x2, ... xn) îïðåäåëåíà ôóíêöèÿ ïîëåçíîñòè ïîòðåáèòåëÿ U(x1, x2, ...xn), åå çíà÷åíèå (îöåíêà ïîòðåáèòåëÿ) íàçûâàåòñÿ óðîâíåì èëè ñòåïåíüþ óäîâëåòâîðåíèÿ ïîòðåáíîñòåé. Ñòàâèòñÿ çàäà÷à: íàéòè max U(x1, x2, ...xn) ïðè îãðàíè÷åíèÿõ p1x1 + p2x2 + ... + pnxn T, xi 0 , i  1, n .

(4.38)

Èç ñîîòíîøåíèé (4.21) ñëåäóåò n   g x , x ,... x  T  xi pi  0  :    1 2 n  i 1  

L L 0  0,  xi  0,   g(x1 , x 2 , ... x n )  0,   0 , xi xi L(x1, x2, ... xn,

 ) = U(x1, ... xn) + +  •g(x1, ... xn).

(4.39)

Åñëè xi > 0, òî çàäà÷à (4.38) èäåíòè÷íà çàäà÷å (4.26) ïðè 1 = 2 = 0. Ïðèìåðîì òàêîé ïîñòàíîâêè ÿâëÿåòñÿ ìîäåëü Ñòîóíà. 229

Ìîäåëü Ñòîóíà Â ìîäåëè Ñòîóíà ôóíêöèÿ ïîëåçíîñòè U(x1, x2, ... xn) îïðåäåëÿåòñÿ ðàâåíñòâîì i

n

U  x1 ,...xn     xi  ai  ,

(4.40)

i 1

n

îãðàíè÷åíèÿ

px

i i

i 1

 T ; xi  ai , i  0, i  1, n .

Çíà÷åíèå ai åñòü ìèíèìàëüíî íåîáõîäèìîå êîëè÷åñòâî i-ãî áëàãà, êîòîðîå ïðèîáðåòàåòñÿ â ëþáîì ñëó÷àå; êîýôôèöèåíò i îïðåäåëÿåò îòíîñè-òåëüíóþ öåííîñòü áëàãà. Ñòðîãèå íåðàâåíñòâà xi > ai èñêëþ÷àþò íóëåâîå çíà÷åíèå óðîâíÿ óäîâëåòâîðåíèÿ ïðè ìèíèìàëüíîé âåëè÷èíå xi = ai. Çàìåíà ïåðåìåííûõ yi= xi – ai ïðèâîäèò èñõîäíóþ çàäà÷ó ê âèäó: Íàéòè max U  y1 , y2 ,... yn  

n

 y i 1

(4.41)

i

i

ïðè óñëîâèÿõ

yi  0, i  1, n;

n

n

n

i 1

i 1

i 1

 pi  yi  ai   T или  pi yi  T   pi ai  T1 .

Èçâåñòíî, ÷òî åñëè Z(U) ÿâëÿåòñÿ ìîíîòîííîé ôóíêöèåé â îáëàñòè D, òî ýêñòðåìóìû ôóíêöèé Z(U(Y)) è U(Y)(UD) ñîâïàäàþò. Ïîýòîìó áóäóò ñîâïàäàòü ýêñòðåìóìû ôóíêöèé n

n

i 1

i 1

U   yii è Z  ln U    i ln yi , yi  0. Ôîðìóëèðîâêà çàäà÷è ñîâïàäàåò ñ óñëîâèÿìè (4.26) ïðè xi > 0 è åå ðåøåíèå íàõîäèòñÿ èç ñîîòíîøåíèé (4.28), (4.29) ïðè 1 =2 = 0:

Z  i    pi , yi yi

n

n

i 1

i 1

i     pi yi  T1 , 230

откуда

1





T1

.

n

 i 1

Ïîýòîìó

yi 

i

 i 1  i T1    pi  pi n i

(4.42)

.

i 1

Òàê

êàê

ñìåøàííûå

ïðîèçâîäíûå

2Z  0, yi y j

а

 2 Z i , òî âòîðîé äèôôåðåíöèàë ôóíêöèè Ëàãðàíæà  yi2 yi2 n   L  Z     T1   pi yi  i 1  

n

d 2L    i 1

i 2 i

y

 dyi2

îòðèöàòåëåí ïðè ëþáûõ íàáîðàõ dyi è ôóíêöèÿ Z, à çíà÷èò è ôóíêöèÿ U, èìååò ìàêñèìóì â íàéäåííîé òî÷êå. Ïåðåõîäÿ ê ïåðåìåííûì xi, ïîëó÷àåì n

xi  ai 

i pi



T   pi ai i 1 n

 i 1

(4.43)

. i

Ñîîòíîøåíèå (4.43) èìååò ÿñíóþ ýêîíîìè÷åñêóþ èíòåðïðåòàöèþ: ïðèîáðåòàþòñÿ ìèíèìàëüíî íåîáõîäèìûå áëàãà ai, à îñòàâøàÿñÿ ñóììà T  ïðîïîðöèîíàëüíî âåñàì

i i 1

pa i 1

i i

ðàñïðåäåëÿåòñÿ

öåííîñòè áëàã. Ðàçäåëèâ

n



n

i

231

êîëè÷åñòâî äåíåã íà öåíó pi, ìîæíî íàéòè êîëè÷åñòâî i-ãî áëàãà, ïîëó÷àåìîãî ñâåðõ ìèíèìóìà ai.  ÷àñòíîì ñëó÷àå ïðè ðàâíûõ i =  è ai = 0 çíà÷åíèÿ

xi 

T , ò.å. ñóì-ìà äåëèòñÿ ïîðîâíó ìåæäó áëàãàìè. Â npi

äàííîì ñëó÷àå êîýôôèöèåíò ýëàñòè÷-íîñòè (4.7) ðàâåí

xi pi T  1  T      2   pi  1. npi pi xi n  pi   ìîäåëÿõ, ñîäåðæàùèõ îãðàíè÷åíèÿ â âèäå íåñòðîãèõ íåðàâåíñòâ xi  0, ðåøåíèå íàõîäèòñÿ èç ñîîòíîøåíèé (4.39) áîëåå ñëîæíûì ïóòåì. Ïðè áîëüøîì ÷èñëå îãðàíè÷åíèé äëÿ îïðåäåëåíèÿ îïòèìàëüíîãî ðåøåíèÿ èñïîëüçóþòñÿ ÷èñëåííûå ìåòîäû èëè àïïàðàò ëèíåéíîé îïòèìèçàöèè. Ïðèìåð 4. Îïðåäåëèòü îïòèìàëüíûé ïîòðåáèòåëüñêèé

U  x1   x2  a  , áþäæåòíîå îãðàíè÷åíèå p1x1+p2x2  T, x1 > 0, x2  0, a > 0. âûáîð, åñëè ôóíêöèÿ ïðåäïî÷òåíèÿ Èç ñîîòíîøåíèÿ (2.34) íåðàâåíñòâà x2  0 ñëåäóåò

ñ

ó÷åòîì

íåñòðîãîãî

L  x1   x2  a     T  p1 x1  p2 x2  ;   0;

x a x1 L L L 0  2   p1  0;    p2  0; x2  0; x1 x2 2 x2  a x2 2 x1 (4.44)

  (T  p1 x1  p2 x2 )  0 . U Òàê êàê  0, òî  > 0 ò.å. T – p1x1 – p2x2 = 0. x1 Ðàññìîòðèì äâà âàðèàíòà: x2 > 0 è x2 = 0.  ïåðâîì ñëó÷àå (òî÷êà Ì1)

L  0, x2

x1 2 x2  a

  p2  0 232

è ñ ó÷åòîì ñîîòíîøåíèé (4.44) ïîëó÷àåì

x2  a p1 p  , x1   x2  a  2 , x1 p2 p1

p2  x2  a   p2 x2  T ,

îòêóäà

 1 T 1 T  1  T ap2  x2    a  , x2  a    , x1    , 2  p2 2  p2  a  2  p1 p1    p p 1 T U max   x2  a  2    a  2 . p1 2  p2  p1

Ðèñ. 4.10. Âî âòîðîì ñëó÷àå x2 = 0, (òî÷êà M2). Îãðàíè÷åíèå ap2; ïðè ýòîì U max  U max

x1 

Ta T , U max  p1 p1

L  0 âûïîëíÿåòñÿ ïðè T  x2 è ðàâåíñòâî U max  U max èìååò

ìåñòî ïðè T = ap2 (ðèñ. 4.10); â ýòîì ñëó÷àå òî÷êè Ì1 è Ì2 ñîâìåùàþòñÿ â îäíó Ì3.

233

4.9. Âçàèìîçàìåíÿåìîñòü áëàã. Êîìïåíñàöèÿ èçìåíåíèÿ öåí Ôóíêöèè ñïðîñà (4.43) ïîêàçûâàþò, ÷òî ñïðîñ íà i-é òîâàð ïðè ai = 0 íå çàâèñèò îò öåí íà äðóãèå òîâàðû.  îáùåì ñëó÷àå ïðè ðîñòå öåíû íà i-é òîâàð ñïðîñ íà íåãî ïîíèæàåòñÿ, à ñïðîñ íà j-é òîâàð ìîæåò ïðè ýòîì ðàñòè (òîâàðû âçàèìîçàìåíÿåìû) èëè òîæå ïàäàòü (òîâàðû âçàèìîäîïîëíÿåìû). Ïîñêîëüêó ðîñò öåíû ñíèæàåò îáùåå áëàãîñîñòîÿíèå ïîòðåáèòåëÿ, òî äëÿ îöåíêè çàìåíÿåìîñòè áëàã èñïîëüçóåòñÿ ïîíÿòèå êîìïåíñèðîâàííîãî èçìåíåíèÿ öåíû, êîãäà äîõîä ïîòðåáèòåëÿ óâåëè÷èâàåòñÿ äî ïðåæíåãî óðîâíÿ áëàãîñîñòîÿíèÿ (ðèñ.4.11). Ïðè èçìåíåíèè öåíû 1-ãî áëàãà ñ p1 äî p1+  p1 áþäæåòíàÿ ïðÿìàÿ ëèíèÿ p1x1+p2x2=T èç ïîëîæåíèÿ I ïåðåéäåò â ïîëîæåíèå II; òî÷êîé íîâîãî îïòèìóìà ñòàíåò òî÷êà  êàñàíèÿ êðèâîé áåçðàçëè÷èÿ 2 U(x1, x2) = const è ëèíèè II. Ïðè êîìïåíñàöèè ïîòåðè áëàãîñîñòîÿíèÿ äîõîä ïîòðåáèòåëÿ Ò óâå-ëè÷èâàåòñÿ òàê, ÷òîáû íîâàÿ áþäæåòíàÿ ëèíèÿ êîñíóëàñü â òî÷êå Ñ ïðåæíåé ëèíèè áåçðàçëè÷èÿ 1 U(x1, x2) = U(x10, x20). Âåêòîð AC áóäåò ïîêàçûâàòü ýôôåêò çàìåíû ïðè ðîñòå öåíû, ò.å. èçìåíåíèå ñïðîñà ïðè óñëîâèè ïîääåðæàíèÿ ïðåæíåãî óðîâíÿ áëàãîïîëó÷èÿ. Âåêòîð BC îòðàæàåò ýôôåêò äîõîäà ïðè èçìåíåíèè óðîâíÿ äîõîäà è ñîõðàíåíèÿ ñîîòíîøåíèÿ öåí. Èçìåíåíèå ñïðîñà è äîõîäà ïîòðåáèòåëÿ ìîæíî U(x1, x2) = x1•x2. Ïðè ðîñòå öåíû p1 â t ðàç (t>1) íîâûé ñïðîñ ïðè êîìïåíñèðîâàííîì äîõîäå T ñîãëàñíî ôîðìóëå (4.43) ðàâåí (ïðè a1= a2= 0, 1= 2= 1):

x1  Èç

T T , x2  . 2tp1 2 p2 óñëîâèÿ

ïîäñòàíîâêè

êîìïåíñàöèè

T2 T2  4tp 1 p2 4 p 1 p2 234

x1  x2  x1 x2 ïîñëå

ñëåäóåò T 

t T , ò. å.

x1  t 

x T  1 , x2  x2 t . 2tp1 t

Ñïðîñ

íà

ïåðâûé

òîâàð

ñîêðàòèëñÿ â

t ðàç ïðè êîìïåíñàöèè (áåç íåå – â t ðàç), ñïðîñ íà âòîðîé òîâàð â t ðàç âûðîñ.

Ðèñ. 4.11.  îáùåì ñëó÷àå äëÿ ôîðìóëèðîâêó: íàéòè max U(x1, x2, ... xn) n

ïðè îãðàíè÷åíèÿõ

px i 1

i i

n

áëàã

çàäà÷à

 T , xi  0, i  1, n ,

èìååò

(4.45)

ãäå ôóíêöèÿ U(x1, x2, ... xn) ÿâëÿåòñÿ ñòðîãî âîãíóòîé è óäîâëåòâîðÿåò óñëîâèÿì (4.5). Îïòèìàëüíîå ðåøåíèå x0 = (x10, x20, ... xn0) íàõîäèòñÿ èç ñîîòíîøåíèé, àíàëîãè÷íûõ (4.28) ïðè 1 = 2 = 0 äëÿ ôóíêöèè Ëàãðàíæà L(x1, ... xn, ) =

 U ( x1 ,

n

, xn )   (T   pi xi ) : i 1

235

n

T   pi xi  0,

(4.46)

i 1

U   pi  0, i  1, n, xi U U pi  . xi x j p j

иëè

Ñîîòíîøåíèÿ (4.46), ôóíêöèè ïàðàìåòðîâ Ò,pi:

(4.47)

xi0  i  p, T  , i  1, n,

(4.47) (4.48)

îïðåäåëÿþò

p   p1, , p2 ,

xi0

pn  .

êàê

(4.49)

 òî÷êå êîìïåíñàöèè Ñ èìåþò ìåñòî ðàâåíñòâà, ïîäîáíûå (4.48): U(x1, x2, ... xn) = U(x10, x20, ... xn0) = C0,

U xi

ãäå

pk  tk pk

U pi  , x j p j

(4.50) (4.51)

k  1, n – íîâûå (èçìåíåííûå èëè íåò)

öåíû áëàã. Ðåøå-íèå óðàâíåíèé (4.50), (4.51) îïðåäåëÿåò çíà÷åíèÿ xi0 êàê ôóíêöèè ïàðàìåòðîâ ti, pi, T:

xi0   i  ti , pi , C0  .

(4.52)

Êîìïåíñèðîâàííûé äîõîä n

T   pi  xi ,

(4.53)

i 1

ÿâëÿþùèéñÿ ôóíêöèåé öåí 0 i

ïîäñòàíîâêå çíà÷åíèé x

pi è T, íàõîäèòñÿ ïðè

èç ðàâåíñòâà (4.52) â óðàâíåíèå

(4.53). Âû÷èñëåííûå çíà÷åíèÿ xi0 ,

T èñïîëüçóþòñÿ äëÿ

îöåíêè âëèÿíèÿ èçìåíåíèé öåí íà ñïðîñ è âåëè÷èíó êîìïåíñàöèè

T  T  T . 236

Ïðèìåð 5. Îïðåäåëèì èçìåíåíèå ñïðîñà è êîìïåíñàöèþ T äëÿ ôóíêöèè ïîëåçíîñòè U = (x1 – 1)(x2 – 1), xi> 1, i = 1, 2 ïðè èçìåíåíèè öåíû p1 â t1 ðàç:

p1  t1 p1 , p  (t1  1) p1 . Èìååì

U  x2  1, xi

U  x1  1 x2

è ñîãëàñíî ñîîòíîøåíèþ (4.48)

x2  1 p1  , x1  1 p 2

x2  1 

p1  x1  1 . p2

Ïîäñòàâëÿÿ â óðàâíåíèå (4.46), íàõîäèì

p  p1 x1   1  x1  1  1 p2  T .  p2  îòêóäà

x10 

T  p1  p2 , 2 p1

x20 

T  p1  p2 2 p2

(4.54)

Èç óñëîâèÿ êîìïåíñàöèè (4.50) ñëåäóåò

x20  1 p1  x 1 x 1   x 1 x 1 , ãäå x 0  1  p 1 2 0 1

0 2

0 1

0 2

ñîãëàñíî ðàâåíñòâó (4.51). Èìååì 2 2 p1 0 p x1  1  1  x10  1 ,  p2 p2 2 2 p2 0 p x2  1  2  x20  1 ,  p1 p1

Ïîäñòàâëÿÿ çíà÷åíèÿ îïðåäåëÿåì

1 x10  1  x10  1,  t1 (4.55) 1 0 0  x2  1  x2  1. t1

x10 , x20 , â óðàâíåíèå (4.53),

T:

237

 1   1  T  p1  x10  1  1  p2  x20  1  1     t1  t1  



 t1   p1 x10  p2 x20   1  t1  t1  T 





t1  1





t1  p1  p2 



(4.56)

t1  p1  p2 .

Èç ðàâåíñòâ (4.55), (4.56) íàõîäèì èçìåíåíèå ñïðîñà è êîìïåíñàöèþ T:  1  x1  x10  x10    1  x10  1 ; x20  x20  x20   t   1  T  T  T 





 

t1  1 T  p2  t1  p1 





t1  1  x20  1 ,

(4.57)



t1  1 T  p1  p2   p.

Àíàëèç âûðàæåíèé äëÿ x10 è x20 ïîêàçûâàåò, ÷òî ïðè óâåëè÷åíèè äîõîäà ñïðîñ íà ýòè áëàãà óâåëè÷èâàåòñÿ, òàê êàê

x10 x20 1 1   0,   0 . Òàêèå áëàãà (òîâàðû) T 2 p1 T 2 p2

ÿâëÿþòñÿ öåííûìè.  îáùåì ñëó÷àå èç ñîîòíîøåíèÿ (4.46) äëÿ n áëàã ñëåäóåò

p1 

x1 x  p2  2  T T

 pn 

xn  1, T

÷òî äîêàçûâàåò ñóùåñòâîâàíèå öåííûõ òîâàðîâ. Ïîñêîëüêó

1  T  p2  x10  1   , òî ïðè óâåëè÷åíèè 2 p1 

öåíû p1 çíà÷åíèå ñïðîñà íà öåííûé òîâàð óìåíüøàåòñÿ. Äâà áëàãà i, j íàçûâàþòñÿ âçàèìîçàìåíÿåìûìè, åñëè ïðè âîçðàñòàíèè öåíû áëàãà i ïðè êîìïåíñèðóþùåì èçìåíåíèè äîõîäà îäíîâðåìåííî ïðè ïàäåíèè ñïðîñà íà íåãî âîçðàñòàåò ñïðîñ íà òîâàð j, ò. å.

238

x j pi

 0 . Òàê, â

ïðèìåðå 5 ñîãëàñíî ðàâåíñòâó (4.57) ïîýòîìó

áëàãà

x1,

x2

x2 x20  1   0, p ( t1  1) p1

âçàèìîçàìåíÿåìû.

êîòîðûõ âûïîëíÿåòñÿ ñîîòíîøåíèå

x j pi

Áëàãà,

äëÿ

 0 , íàçûâàþòñÿ

âçàèìîäîïîëíèòåëüíûìè. Ïðèìåðàìè òîâàðîâ (áëàã) ïåðâîãî âèäà ÿâëÿþòñÿ ìàñëî è ìàðãàðèí, ìÿñíûå è ðûáíûå ïðîäóêòû; âçàèìîäîïîëíèòåëüíóþ ïàðó òîâàðîâ ñîñòàâëÿþò àâòîìàøèíû è áåíçèí. Ðàññìîòðèì âëèÿíèå ìàëîãî êîìïåíñèðîâàííîãî èçìåíåíèÿ öåíû pi (ïðè ýòîì dU = 0 âñëåäñòâèå êîìïåíñèðóþùåãî èçìåíåíèÿ äîõîäà  T). Äëÿ ñëîæíîé ôóíêöèè xj0=j(pi, T), îïðåäåëÿåìîé ñîîòíîøåíèåì (4.49), ïðèðàùåíèå

x j  x j0  x0j

òî÷íîñòüþ äî ñîîòíîøåíèåì

x j 

x j pi

pi 

â

áåñêîíå÷íî

x j T

T èëè

pi  0  ti  1

Ïðè

îáîçíà÷àåìûé êàê

îêðåñòíîñòè ìàëîé

x j

À

ñ

îïðåäåëÿåòñÿ

x j T  . pi pi T pi x j lim ïðåäåë , pi 0 p i 

x j

òî÷êè



 x j    , ðàâåí  pi comp

x x T  x j   j j .    pi comp pi T pi

(4.58)

Èç óñëîâèÿ êîìïåíñàöèè dU = 0 ñ ó÷åòîì ðàâåíñòâà (4.47) ñëåäóåò n U dxk    pk dxk  0, k 1 xk k 1 n

dU  

Èç óñëîâèÿ (4.46) âûòåêàåò 239

n

 p dx i 1

k

k

 0.

n

n

dT   xk dpk   pk dxk  k 1

k 1

n

 x dp , i 1

k

k

îòêóäà

T  xi . pi

Ñîîòíîøåíèå (4.58) ïðèíèìàåò âèä

x x  x j   j  j  xi .    pi comp pi T

(4.59)

è íàçûâàåòñÿ óðàâíåíèåì Ñëóöêîãî; ÷àñòíûå ïðîèçâîäíûå âû÷èñëÿþòñÿ â òî÷êå À, îïðåäåëÿåìîé óðàâíåíèÿìè (4.46), (4.47). Áîëåå ñëîæíûì ïóòåì óðàâíåíèå Ñëóöêîãî âûâîäÿòñÿ ìåòîäîì ñðàâíèòåëüíîé ñòàòèêè, ìàòðè÷íûå óðàâíåíèÿ êîòîðîãî îïðåäåëÿþò ñìåùåíèå îïòèìàëüíîé òî÷êè x0 ïðè èçìåíåíèè ïàðàìåòðîâ p, T. Ïðèìåð 6. Ïðîâåðèì âûïîëíåíèå ðàâåíñòâà (4.59) äëÿ ôóíêöèè ïîëåçíîñòè ïðèìåðà 5. Èç ñîîòíîøåíèÿ (4.57) äëÿ çíà÷åíèé x01, x02 íàõîäèì  1   1 x10  1   x1  x10  1 x1 T  p2 x1 1  t   lim  ;  ;  ;   2 t1 1  p t  1 p 2 p  p 2 p  T 2 p1    1 comp 1 1 1 1 1



 x2   lim    p1 comp t1 1







t1  1  x20  1

 t1  1 p1



x20  1 x2 x2 1 1 ;  ;  . 2 p1 p1 2 p2 T 2 p2

Èìååì, ïîäñòàâëÿÿ â ñîîòíîøåíèå (4.59) íàéäåííûå çíà÷åíèÿ ïðîèçâîäíûõ:



T  p2 x10 x10  1  x1  1  0  0 1     x  x   2    ,  1  1  2 p12 2 p1 2 p1  2   2 p1  p1 comp 



x0 x 0  1 p2 x20  1 x20  1  x2  1  1  1      . 2 p2 2 p2 2 p2 p1 2 p2 2 p1  p1 comp

Èñïîëüçóÿ óðàâíåíèå (4.59), ìîæíî âûâåñòè ðÿä ñâîéñòâ áëàã (òîâàðîâ). Èç ñîîòíîøåíèÿ (4.46) ñëåäóåò n

p i 1

i

xi  1 , ò.å. ïðè pi > 0 äîëæíû ñóùåñòâî-âàòü T 240

öåííûå

áëàãà,

Ïîñêîëüêó

â

äëÿ ñèëó

êîòîðûõ

âûïîëíÿåòñÿ

âûïóêëîñòè

ëèíèé

xi 0. T

áåçðàçëè÷èÿ

 xi   0 , òî èç óðàâíåíèÿ Ñëóöêîãî äëÿ i-ãî öåííîãî    pi comp áëàãà ïîëó÷àåì

xi  xi  x   i  xi  0 , ò.å.ñïðîñ íà  pi  pi comp T

öåííûé òîâàð îáÿçàòåëüíî ïàäàåò ïðè ïîâûøåíèè åãî öåíû. Äàëåå, èç óðàâíåíèÿ (4.59) ñëåäóåò

 x  x x p1  1   p1 1  p1 1  xi , pi T  pi comp  x  x x p2  1   p2 2  p2 2  xi , pi T  pi comp

(4.60)

...............................................  x  x x pn  n   pn n  pn n  xi . pi T  pi comp Äèôôåðåíöèðóÿ óðàâíåíèå (4.46), íàõîäèì

x j

n

p j 1

j

pi

  xi . Ñ ó÷åòîì ñîîòíîøåíèÿ

x j

n

p j 1

j

T

 1,

ñóììèðóÿ ðàâåíñòâà (4.60), ïîëó÷àåì n

 j 1

 x j     p j   xi  xi 1.  pi comp

 x j    0,

îáðàçóþùèé

ñ

i-ì

òîâàðîì 241

âçàèìîçàìåíÿåìóþ

ïàðó.

Ïîýòîìó ïðè íàëè÷èè ïîòðåáèòåëüñêîãî âûáîðà èç äâóõ òîâàðîâ îíè ñîñòàâëÿþò âñåãäà âçàèìîçàìåíÿåìóþ ïàðó. Ñëåäóåò îòìåòèòü, ÷òî óêàçàííûå âûâîäû ñäåëàíû ïðè ïðåäïîëîæåíèè î ìàëûõ èçìåíåíèÿõ öåí pi.  îáùåì ñëó÷àå äëÿ îïðåäåëåíèÿ îïòèìàëüíîãî ðåøåíèÿ ïðè ïðîèçâîëüíîì èçìåíåíèè öåí íåîáõîäèìî ðåøèòü ñèñòåìû óðàâíåíèé (4.46), (4.47), (4.50), (4.51), (4.52). Ïðè èçìåíåíèè öåíû pi êîìïåíñàöèÿ ïðè ïîñòîÿííîì äîõîäå ìîæåò äîñòèãàòüñÿ èçìåíåíèåì öåíû pj. Íà ðèñ.4.11 óìåíüøåíèå öåíû p2 êîìïåíñèðóåò óâåëè÷åíèå öåíû p1 è òî÷êà D ãðàôèêà ñîîòâåòñòâóåò êîìïåíñèðîâàííîìó ñïðîñó. Êîîðäèíàòû òî÷êè D îïðåäåëÿþòñÿ âåëè÷èíîé èçìåíåíèÿ p1. Äëÿ ìàëûõ çíà÷åíèé pi ìîæíî âûâåñòè ñîîòíîøåíèå, àíàëîãè÷íîå (4.59). Ïîñêîëüêó xj = xj(pi, pj), pj = pj(pi), òî äëÿ ñëîæíîé ôóíêöèè xj èìååò ìåñòî çàâèñèìîñòü  p

x j

x j x j p j  x j  lim     .  pi 0 p i  pi comp pi p j pi

(4.61)

Как было показано, при условии компенсации dU=0 выполn

няется рàâåíñòâî

 p dx i 1

i

i

 0 ; èç óñëîâèÿ (4.46) ñëåäóåò

n

dT  0   pi dxi  xi dpi  x j dp j  xi dpi  x j dp j ,

ò.å.

i 1

dp j dpi



xi . xj

Ñîîòíîøåíèå (4.61) ïðèíèìàåò âèä (p)

x j x j xi  x j     ,    pi comp pi p j x j

(4.62)

èíäåêñ (ð) óêàçûâàåò, ÷òî êîìïåíñàöèÿ äîñòèãàåòñÿ èçìåíåíèåì öåíû pj ïðè ïîñòîÿííîì äîõîäå Ò; ïðîèçâîäíûå âû÷èñëÿþòñÿ â òî÷êå À. Íà ãðàôèêå ðèñ. 4.11 âèäíî, ÷òî ïðè êîìïåíñàöèè ïî öåíå p2 ïðÿìàÿ IV èìååò áîëüøèé íàêëîí, ÷åì ïðÿìàÿ II 242

è òî÷êà D ðàñïîëàãàåòñÿ âûøå òî÷êè Ñ íà êðèâîé áåçðàçëè÷èÿ. Ïðèìåð 7. Ïðîâåðèòü âûïîëíåíèå ñîîòíîøåíèÿ (4.62) äëÿ ôóíêöèè ïîëåçíîñòè U=x1x2 . Èç ñîîòíîøåíèé (4.43) è (4.50) ñëåäóåò

x10 

T T T T ; x20  ; x10  ; x20  . 2 p1 2 p2 2 p1 2 p2

Òàê

êàê

x10  x20  x10  x20 , òî

 x20  p x10 0 p1 0 0 0 0  p1 x  0 x2  x2 ; x2  x2  x2  x2    1  ; x1 p1 p1  p1  0 2

( p)

 x2  x2 x20 T  lim   .    p 0 p p1 2 p1 p2  p1 comp ( p)

Íàõîäèì çíà÷åíèå

 x2     p1 comp

ïî ôîðìóëå (4.62).

Èìååì

 x2 x2  T  T x1 p2  0;     2 ;  , ïîýòîìó p1 p2  2 p2  p 2 p2 x2 p1 2 ( p)

 x2  T p T  0 2  2  .   2 p2 p1 2 p1 p2  p1 comp Îáùåå óðàâíåíèå, ñîîòâåòñòâóþùåå íåçàâèñèìûì ìàëûì èçìåíåíèÿì äâóõ öåí pi, pj ñ êîìïåíñàöèåé ïî äîõîäó, èìååò âèä *

x j x j dT x j  x j         p  p  T dp p j i i  i comp (4.63)

243

 dT  1   xi   .  dpi  xj

Åñëè dpj = 0, òî

dT  xi è èç ñîîòíîøåíèÿ (4.63) dpi

ñëåäóåò óðàâíåíèå Ñëóöêîãî (4.59), à ïðè dT = 0 – óðàâíåíèå (4.62) êîìïåíñàöèè ïî öåíå.

244

СПИСОК ИСПОЛЬЗОВАННОЙ ЛИТЕРАТУРЫ 1. Дж. Ван Гиг. Прикладная общая теория систем. –М.: Мир. 1981. Кн.1 - 336с. Кн.2 - с.336-733. 2. Павлов С.Н. Теория систем и системный анализ. –Томск: Томский межвузовский центр ДО, 2003, -134 с. 3. Месарович М., Мако Д., Такахара И. Теория иерархических многоуровневых систем. –М.: Мир, 1973, -344 с. 4. Тарасенко Ф.П. Прикладной системный анализ (Наука и искусство решения проблем). –Томск: Изд-во Том. ун-та, 2004, -186 с. 5. Дружинин В.В., Конторов Д.С. Проблемы системологии (проблемы теории сложных систем). – М.: Сов. радио, 1976, -296 с. 6. Конторов Д.С., Голубев-Новожилов Ю.С. Введение в радиолокационную системотехнику. –М.: Сов. радио, 1971, -368 с. 7. Гришин И.Ю., Можар М.К., Решетник В.М. Проблемы управления зенитными ракетными комплексами // Наука і оборона, - 1994, вип. 3, с. 27-32. 8. Сэйдж Э.П., Уайт Ч.С., III. Оптимальное управление системами: Пер. с англ./ Под ред. Б.Р. Левина. –М.: Радио и связь, 1982. – 392 с. 9. Алиев Р.А., Либерзон М.И. Методы и алгоритмы координации в промышленных системах управления. М: Радио и связь,1987.-208с. 10. Mesarovic M.D., Multilevel concept for systems engeneering, Proc. Systems Eng. Conf., Chicago, III, 1965. 11. Бурков В.Н., Макаров И.М., Соколов В.Б. Модели и механизмы функционирования иерархических систем (обзор). - Автоматика и телемеханика, 1977, N11, с.106-131. 12. Козюкова Т.И. Координируемость многокритериальных взаимосвязанных задач линейного программирования. В кн.: Методы принятия решений в условиях неопределенности. Рига, 1980, с.99-107. 13. Месарович М., Такахара Я. Общая теория систем. М: Мир, 1978. 14. Павловский Ю.Н. Агрегирование сложных моделей и построение иерархических систем управления. В сб.: Исследование операций. Вып.4, ВЦ АН СССР, М., 1974, с.3-38. 15. Drouin M., Abou-Kandil H., Mariton M., Duc G. Une nouvelle methode de decompozision-coordinasion 1 re partie: Principe et mise en ocuvre. "APII", 1985, N3, p.205-226. 16. Duc G., Drouin M., Mariton M., Abou-Kandil H. Une nouvelle methode de decomposition-coordination. 2 e partie: Application a la 245

compensation des systemes multivariables. "APII", 1985, N3, p.227242. 17. Findeisen W., Malinowski K. Two-level control and coordination for dinamisal systems. Archiwum automatiki i telemechaniki. T. XX1V, N1, p.3-27. 18. Kralik J., Stiegler P., Vostry Z., Zavorka J. Modelovani dynamiky rozsahlych siti. Praha, Akademia, 1984, 364p. 19. Mariton M., Drouin M., Abou-Kandil H., Duc G. Une nouvelle methode de decomposition-coordination. 3 e partie: Application a la commande coordonnees-hierarchisee des procesus complexes. "APII", 1985, N3, p.243-259. 20. Michalska H., Ellis J.E., Roberts P.D. Joint coordination method for the steady-state control of large-scale systems. "Int. J. Syst. Sci.", 1985, N5, p.605-618. 21. Петков П.И., Димитров З.И., Иванов М.С. Иерархичные децентрализованные системы управления. София: Техника, 1985, 136с. 22. Tzafestas S.G. Large-scale systems modeling in distributedparameter control and estimation. "Modeling and Simul. Eng. 10th IMACS World Congr. Syst. Simul. and Sci. Comput., Montreal, 8-13 Aug. 1982, v.3" Amsterdam e.a., 1983, p.69-77. 23. Wilson I.D. Foundations of hierarhical control. "International Journal of Control" 29, N6, 1979, p.899-933. 24. Drouin M., Abou-Kandil H., Mariton M., Duc G. Une nouvelle methode de decompozision-coordinasion 1 re partie: Principe et mise en ocuvre. "APII", 1985, N3, p.205-226. 25. Duc G., Drouin M., Mariton M., Abou-Kandil H. Une nouvelle methode de decomposition-coordination. 2 e partie: Application a la compensation des systemes multivariables. "APII", 1985, N3, p.227242. 26. Mariton M., Drouin M., Abou-Kandil H., Duc G. Une nouvelle methode de decomposition-coordination. 3 e partie: Application a la commande coordonnees-hierarchisee des procesus complexes. "APII", 1985, N3, p.243-259. 27. Гайцгори В.Г. и др. Взаимосвязь задач оперативного управления производством и локальной оптимизации установок на предприятиях с непрерывной технологией. Автоматика и телемеханика, N 6, 1986, с.135-146. 28. Алиев Р.А., Либерзон М.И. Методы и алгоритмы координации в промышленных системах управления. М: Радио и связь,1987.-208с. 246

29. Алиев Р.А., Либерзон М.И. Безытеративные алгоритмы координации в двухуровневых системах. - Известия АН СССР. Техническая кибернетика, N 3,1986,с.163-166. 30. Алтунин А.Е. Исследование и разработка методов принятия решений в многоуровневых иерархических системах газовой промышленности. Автореферат канд. дисс., МИНХ и ГП им. И.М.Губкина, М., 1979, 24с. 31. Кучин Б.Л., Алтунин А.Е. Управление системой газоснабжения в осложненных условиях эксплуатации. - М: Недра, 1987, 209с. 32. Wilson I.D. Foundations of hierarhical control. "International Journal of Control" 29, N6, 1979, p.899-933. 33. Nachane D.M. Optimization methods in multilevel systems: a methodological survey. "Eur. J. Oper. Res.", 1985, N1, p. 25-38. 34. Поспелов Г.С. и др. Процедуры и алгоритмы формирования комплексных программ. М: Наука, 1985, 424с. 35. Нурминский Е., Балабанов Т. Декомпозиция энергетической модели высокой размерности. Отчет ВНИИ СИ, N гос.рег.11850981079, 1985. 36. Kralik J., Stiegler P., Vostry Z., Zavorka J. Modeling the dynamic of flow in gas pipelines."IEEE Trans. Syst., Man and Cybern.", 1984, N4, p.586-596. 37. Powerspice simulates circuits faster and more accurately. "Electronics", N34, 1985, p.50-51. 38. Гришин И.Ю., Можар М.К., Решетник В.М. Проблемы управления зенитными ракетными комплексами // Наука і оборона, - 1994, вип. 3, с. 27-32. 39. Моисеев Н.Н. Элементы теории оптимальных систем. М: Наука, 1975, 528с. 40. Павловский Ю.Н. Агрегирование сложных моделей и построение иерархических систем управления. В сб.: Исследование операций. Вып.4, ВЦ АН СССР, М., 1974, с.3-38. 41. Шершков В.В., Шириков В.Ф. Математическое моделирование процессов в системах газоснабжения. Деп.ЦНИТЭИ, М, 1986, 250с. 42. Михалевич В.С. и др. Алгоритм согласования решений в распределенной системе взаимосвязанных задач с линейными моделями. Кибернетика, N 3, 1988, с.1-8. 43. Brdis M., Roberts P.D. Optimal structures for steady-state adaptive optimizing control of large-scale industrial processes. "Int.J.Syst. Sci.",1986,N10,p.1449-1474. 247

44. Ward R.K. Comparison and diagnosis of errors for six parameter estimation methods. "Int. J. System. Sci.", 1984, N7, p.745-758. 45. Wismer D.A. Distributed multilevel systems. In D.A. Wismer (Ed): Optimization Methods for Large-Scale Systems. McGraw-Hill, New York. Chap.6, p.233-273. 46. Кунцевич В.М., Лычак М.М. Синтез оптимальных и адаптивных систем управления: игровой подход. Киев: Наукова думка, 1985, 245с. 47. Mariton M., Drouin M., Abou-Kandil H., Duc G. Une nouvelle methode de decomposition-coordination. 3 e partie: Application a la commande coordonnees-hierarchisee des procesus complexes. "APII", 1985, N3, p.243-259. 48. Фельдбаум А.А. Основы теории оптимальных автоматических систем. М: Наука, 1966, 368 с. 49. Моисеев Н.Н. Элементы теории оптимальных систем. М: Наука, 1975, 528с. 50. Грень Е. Статистические игры и их применение. М: Статистика, 1975, 176 с. 51. Алиев Р.А., Либерзон М.И. Безытеративные алгоритмы координации в двухуровневых системах. - Известия АН СССР. Техническая кибернетика, N 3,1986,с.163-166. 52. Кричлоу Г.Б. Современная разработка нефтяных месторождений - проблема моделирования. М: Недра, 1979. 53. Carlsson C. Fuzzy systems: basis for modeling methodology? "cybernetics and Systems", N15, 1984, p.361-379. 54. Бакан Г.М. Многозначные управляемые процессы с дискретным временем и задачи управления. Автоматика, N 2, 1979, с.22-29. 55. Алтунин А.Е., Семухин М.В. Модели и алгоритмы принятия решений в нечетких условиях. –Тюмень: изд-во ТюмГУ, 2000, 352с. 56. Негойце К. Применение теории систем к проблемам управления. М: Мир, 1981, 179с. 57. Растригин Л.А. Адаптация сложных систем. –Рига: Зинатне, 1981ю –375с. 58. Растригин Л.А., Мафжаров Н.Е. Введение в идентификацию объектов управления. –М.: Энергия, 1977. –214с. 59. Кирюшин О.В. Управление техническими системами: Учеб. пособие. – Уфа: Изд-во УГНТУ, 2005. - 170 с.

248

60. Fabozzi E. J., Valente J., Mathematical Programming in American Companies: A Sample Survey, Interfaces, 7 (1), 93—98 (Nov. 1976). 61. Steen L. A. Linear Programming: Solid New Algorithm, Science Nevus, 116, 234-236 (Oct. 6, 1979). 62. Реклейтис Г., Рейвиндран А., Рэгсдел К. Оптимизация в технике: В 2-х кн. Кн. 1. –М.: Мир, 1986. –350 с. 63. Dantzig Q. В., Linear Programming and Extensions, Princeton Univ. Press Prenceton, N. J., 1963. 64. Gass S. I., Comments on the Possibility of Cycling with the Siiplex Method, Oper. Res., 27(4), 848—852 (1979). 65. Orchard-Hays W., On the Proper Use of a Powerful MPS, in: Optimization Methods for Resources Allocation (R. W. Cottle, J. Kjarup, Eds.), English Universities Press, London, 1974, pp. 121—149. 66. White W. W., A Status Report on Computing Algorithms for Mathematical Programming, Comput. Sun., 5(3), 135—166 (1973). 67. Ravindran A., Linear Programming, in: Handbook of Industrial Engineering (G. Salvendy, Ed.), Wiley, N. Y., 1982, ch. 14.2.1— 14.2.11. 68. Phillips D. Т., Ravindran A., Solberg J. J., Operations Research: Principles and Practice, Wiley, N. Y., 1976. 69. Barnes J. W., Crisp R. M., Jr., Linear Programming: A Survey of General Purspose Algorithms, Atner. Inst. Ind. Eng. Trans., 7(3), 212—221 (1975). 70. Хачиян Л. Г., Полиномиальный алгоритм в линейном программировании, ДАН СССР, 1979, т. 224, № 5. 71. Dantzig Q. В., Comments on Khachian's Algorithm for Linear Programming, Tech. Rep. SOL 79-22, Department of Operations Research, Stanford University, Stanford, CA, 1979. 72. Karmarkar N.A. A new polynomial-time algorithm for linear programming // Combinatorica. –1984, v. 4, -p. 373-395. 73. Grishin I., Potapov G. Linear programming: a new polynomialtime algorithm // Вісник Східноукраїнського національного університету ім. В. Даля. –№1(107). –2007. с. 113-119. 74. Grishin I., Potapov G. The heuristic algorithm for dependent constraints definition// Тезі доповідей дев’ятої міжнародної науковотехнічної конференції «Системний аналіз та інформаційні технології», м. Київ, 15-19 травня 2007 р., с. 34-35. 75. Grishin I., Potapov G. A new polynomial-time algorithm for linear programming. The 5th International conference IT&M Information 249

technologies and management. Programme and Theses. Riga, Latvia, April 12-13, 2007, 45-46. 76. Бабенко К.И. Основы численного анализа. – М.: Наука, Гл. ред. Физ.-мат. Лит. 1986. –744 с. 77. Марчук Г.И. Методы вычислительной математики. – М.: Наука, 1980. – 698 с. 78. Кларк Ф. Оптимизация и негладкий анализ: Пер. с англ./Под ред. В.И. Благодатских. – М.: Наука, 1988. – 280 с. 79. Рейклетис Г., Рейвиндран А., Рэгсдел К. Оптимизация в технике: В 2-х кн. Кн. 1. – М.: Мир, 1986. – 350 с. 80. Понтрягин Л.С., Болтянский В.Г., Гамкрелидзе Р.В., Мищенко Е.Ф. Математическая теория оптимальных процессов. – М.: Наука. Главная редакция физико-математической литературы, 1983. – 392 с. 81. Сихарулидзе Ю.Г. Баллистика летательных аппаратов. – М.: Наука. Главная редакция физико-математической литературы, 1982. – 352 с. 82. Фан Лянь-Цэнь, Вань Чу-Сен. Дискретный принцип максимума. Пер. с англ.—M.: Мир, 1967. – 180 с. 83. Кузьмин С.З. Основы проектирования систем цифровой обработки радиолокационной информации. – М.: Радио и связь, 1986. – 352 с. 84. Астрономический календарь. Постоянная часть. – M.: Физматгиз, 1962. –772 с. 85. Черняк В.С. Многопозиционная радиолокация. – М.: Радио и связь 1993. – 416 с. 86. Черняк В.С., Заславский Л.П., Осипов Л.В. Многопозиционные радиолокационные станции и системы // Зарубежная радиоэлектроника. – 1987. № 1. – С. 9 — 69. 87. Barale G., Fraschetty G., Pardini S. The multiradar tracking in the ATC system of the Rome FIR // Proc. Intern. Radar Conf. “Radar’82”. – London, 1982. – P. 296-299. 88. Гришин И.Ю., Можар М.К., Есин В.И. Оптимизация управления многопозиционным радиолокационным комплексом // Тезисы докладов 2-й Всесоюзной научно-технической конференции. – Туапсе, 1991. – С. 48-49. 89. Ширман Я.Д., Манжос В.Н. Теория и техника обработки радиолокационной информации на фоне помех. – М.: Радио и связь, 1981. – 416 с. 90. Брайсон А., Хо-юши. Прикладная теория управления. – М.: Мир, 1972. – 544 с. 250

91. Жданюк Б.Ф. Основы статистической обработки траекторных измерений. – М.: Сов. радио, 1978. – 324 с. 92. Kalman R., Bucy R. New results in linear filtering and prediction theory // J. Basic. Engr. (ASME Trans.) – 1961. –V. 83. –P. 95— 108. 93. Кузьмин С.З. Цифровая обработка радиолокационной информации. – М.: Сов. радио, 1967. – 400 с. 94. Тихонов А.Н., Арсенин В.Я. Методы решения некорректных задач. – М. Наука, 1979. –285 с. 95. Лайниотис Д. Разделение – единый метод построения адаптивных систем. – ТИИЭР, 1976, т. 64, № 8, с. 8—27. 96. Гришин И.Ю., Можар М.К., Сафронов А. В., Руденко Н.Н. Адаптивный фильтр // Описание изобретения к заявке № 3195652 от 5.04.1988г., авторское свидетельство СССР № 315440 от 1.07.1990г. –25 с. 97. Неупокоев Ф.К. Стрельба зенитными ракетами. – М. Воениздат, 1991. – 343 с. 98. Athans M. On the determination of optimal cost measurement strategies for linear stochastic systems. – Automatica. 1972, vol. 8, N 4, p. 397 — 412. 99. Куржанский А. Б. Управление и наблюдение в условиях неопределенности. –М.: Наука, 1977. – 392 с. 100. Рубинович Е. Я. Траекторные управления наблюдениями в дискретных стохастических задачах оптимизации.— АиТ. 1980, № 3. с. 93—102. 101. Черноусъко Ф. Л. Об оптимизации процесса наблюдения.— Приклад, мат. и механика, 1969, т. 33, вып. 1, с. 101—111. 102. Черноусъко Ф. Л. Оптимизация процессов управления и наблюдения в динамической системе при случайных возмущениях.— АиТ, 1972 г., № 4, с. 42-49. 103. Черноусъко Ф. Л., Ваничук Н. В. Вариационные задачи механики в управления: Численные методы. – М.: Наука, – 1973. 240 с. 104. Grigorev F. N., Kuznetsov N. A. Control of the observation process in continuous systems. — Probl. Contr. and Inform. Theory, 1977, vol. 6 (3), p. 181—201. 105. Григорьев Ф. Н., Кузнецов Н.А., Серебровский А.П. Управление наблюдениями в автоматических системах. М.: Наука, 1986. –216 с.

251

106. Гомозов В.И., Гришин И.Ю. и др. Радиолокационная система // Описание изобретения к заявке N 4841289/09 (03575) от 19.04.1991г, положительное решение №040692 от 26.06.92г. – 110 с. 107. Балакришнан А. Теория фильтрации Калмана. – М.: Мир, 1988, –168 с. 108. Романовский Н. В. Алгоритмы решения экстремальных задач. М.: Наука, 1977. – 352 с. 109. Хохлюк В. И. Задачи целочисленной оптимизации (преобразования). Новосибирск: НГУ, 1979. – 92 с. 110. Michael Athans: The Matrix Minimum Principle // Information and Control 11(5/6): 592-606 (1967) 111. Athans M. The matrix minimum principle. Massachusetts Institute of Technology Electronic Systems Laboratory Report ESL-R317, Cambridge, Massachusetts, 1967, – 19 p. 112. Крылов И. А., Черноусъко Ф. Л. О методе последовательных приближении для решения задач оптимального управления.— Журн. вычислит. мат. и мат. физ., 1962, т. 2, № 6, с. 1132—1139. 113. Крылов И. А., Черноусъко Ф. Л. Алгоритм метода последовательных приближений для задач оптимального управления.— Журн. вычислит. мат. и мат. физ., 1972, т. 12, № 1, с. 14—34. 114. Гилл Ф., Мюррей У., Райт М. Практическая оптимизация. М.: Мир,1985. 509 с. 115. Васильев Ф.П. Численные методы решения экстремальных задач. – М.: Наука, 1988, – 520 с.

252

СОДЕРЖАНИЕ ВВЕДЕНИЕ…………………………………………………..... 1. ТЕОРЕТИЧЕСКИЕ ОСНОВЫ ОПТИМИЗАЦИИ УПРАВЛЕНИЯ ТЕХНИЧЕСКИМИ И ЭКОНОМИЧЕСКИМИ СИСТЕМАМИ……………………….......….…... 1.1. Системное представление объектов управления...….… 1.2. Качество и эффективность функционирования системы…………………………………………………………….… 1.3. Особенности управления многоуровневыми иерархическими системами…………………………………………..... 1.4. Основные принципы адаптивного управления сложными системами.............................................................................. 2. ТЕОРИЯ ПРИНЯТИЯ РЕШЕНИЙ КАК МЕТОДОЛОГИЧЕСКАЯ ОСНОВА ОПТИМИЗАЦИИ УПРАВЛЕНИЯ СЛОЖНЫМИ СИСТЕМАМИ……………………………....... 2.1. Основные типы задач оптимизации управления по скалярному показателю качества и методы их решения……..... 2.2. Динамическое программирование………………………. 2.3. Принцип максимума Понтрягина……………………...... 3. ПРИКЛАДНЫЕ ЗАДАЧИ ОПТИМИЗАЦИИ УПРАВЛЕНИЯ В ТЕХНИЧЕСКИХ СИСТЕМАХ………........................ 3.1. Постановка задачи оптимизации управления функционированием радиолокационного комплекса……………….... 3.2. Системы координат, используемые при проектировании методов и алгоритмов управления радиолокационной системой……………………...................................................... 3.3. Анализ современных направлений развития радиолокационной техники………………………................................. 3.4. Управляемые параметры радиолокационных станций и систем……. 3.5. Подсистема обработки радиолокационной информации……………............................................................................ 3.6. Методы рекуррентной фильтрации параметров траекторий целей…............................................................................. 3.7. Показатель качества управления режимом сопровождения МПРЛС............................................................................ 3.8. Теоретические основы управления функционированием МПРЛС в режиме сопровождения целей.……....……….. 3.9. Разработка алгоритма оптимального управления МПРЛС в режиме сопровождения целей…………………..... 253

3

5 5 14 26 39

50 51 115 119 124 124

131 133 153 157 160 165 167 173

3.10. Особенности реализации алгоритмов управления реальными МПРЛС………………………………….................... 3.11. Разработка алгоритма квазиоптимального управления МПРЛС в режиме сопровождения целей………………….... 4. ОПТИМАЛЬНОЕ УПРАВЛЕНИЕ ЭКОНОМИЧЕСКИМИ СИСТЕМАМИ……………………..................................... 4.1. Определение производственной функции…………….... 4.2. Характеристики производственных функций………….. 4.3. Неоклассические производственные функции…………. 4.4 Построение производственных функций……………....... 4.5. Некоторые задачи оптимизации. Основные положения.. 4.6. Задача максимизации прибыли………………………….. 4.7. Задачи оптимизации объема выпуска и издержек производства……............................................................................. 4.8. Оптимизация потребительского выбора………………... 4.9. Взаимозаменяемость благ. Компенсация изменения цен................................................................................................ СПИСОК ИСПОЛЬЗОВАННОЙ ЛИТЕРАТУРЫ…………...

254

182 198 199 200 202 204 210 213 216 220 225 230 241

ДЛЯ ЗАМЕТОК

255

Гришин Игорь Юрьевич АКТУАЛЬНЫЕ ПРОБЛЕМЫ ОПТИМИЗАЦИИ УПРАВЛЕНИЯ В ТЕХНИЧЕСКИХ И ЭКОНОМИЧЕСКИХ СИСТЕМАХ Научное издание

Редактор …………………………. Компьютерная верстка и дизайн ……………………………..

Формат 84х108/32. Объем . уч.-изд.л. Бумага тип.№1. Тираж …экз.

РИО РВУЗ «Крымский гуманитарный университет» 98635, Украина, Автономная республика Крым, Ялта, ул. Севастопольская, 2 тел./факс (0654)32-30-13

256