ОЦЕНКА СЫРОЙ НЕФТИ ИСПОЛЬЗОВАНИЕМ НЕЙРОСЕТЕВЫХ АЛГОРИТМОВ




Абусуек Ражаб Атия

ст. исследовательский сотрудник. профессор, Ливийский Нефтяной Институте, Триполи, Ливии.

Оценка сырой нефти всегда считалась сложной задачей, решаемой на основе субъективных предпочтений эксперта. Основой для принятия решений в таких случаях всегда служил его личный опыт, а также имеющуюся информацию о экспертной оценки подобных объектов другими экспертами, использование традиционных технологий искусственного интеллекта, таких как экспертные. Системы, не нашел широкого распространения использования в нефтяной геологии, как из-за сложности извлечения соответствующих экспертных знаний, и из-за высокой степени субъективности информации. Поэтому более перспективным подходом, основанным на использовании методов распознавания образов, классификация и кластеризация, что предлагается.

Ключевые слова: Ключевые слова: оценка сырой нефть,задачи кластеризации,задачи классификации,задачи кластеризации,сеть разработана Тойво Кохоненом,обучение без учителя,методом последовательных приближений.




Библиографическое описание: Библиографическое описание:


Для того, чтобы воспользоваться соответствующими методами, необходимо представить процедуру стоимостной оценки объектов сырой нефти  в виде последовательности решения следующих задач:

Задачи кластеризации множества эталонных объектов, имеющих сходные (возможно, пересекающиеся) значения свойств но например по углеводородному составу  и известную стоимостную оценку для каждого такого объекта. Результатом решения данной задачи является разбиение множества  эталонных объектов на множество непересекающихся групп объектов – эталонных классов, и мы уже имеем три эталоных класса: тяжелое сырье — легкое сырье — сырье брент.

Задачи классификации оцениваемого образца, т.е. его отнесения к той или иной полученной ранее эталонной группе.

Задачи определения стоимости оцениваемого образца в выбранной при классификации эталонной группе путем интерполяции или экстраполяции известных стоимостных оценок объектов этой группы на оцениваемый образец в соответствии со значениями его свойств.

Пусть имеется К образцов сырой нефти для которых известна достоверная стоимость каждого образца . Для каждого образца известен вектор его характеристик (признаков), в конечном итоге определяющих его стоимость . Используем эти данные для построения отображения , определяющего процедуру оценки стоимости нового объекта по известному вектору характеристик. Используем для этого математический аппарат искусственных нейронных сетей, для которых описанное множество объектов будет служить в качестве  обучающей выборки для формирования эталонных классов.

Для решения задачи кластеризации исходного множество образцов целесообразно использовать сеть Кохонена, состоящую из S нейронов, каждый из которых  представляет собой эталон определенного класса и вычисляет расстояние от исследуемого объекта до этого класса. Очевидно, что минимальный сигнал, получаемый на множестве из S параллельно работающий нейронов, определяет класс, к которому принадлежит исследуемый объект.

Сеть разработана Тойво Кохоненом в начале 1980-х гг. и принципиально отличается от многих нейросетей, поскольку использует неконтролируемое обучение (обучение без учителя) и обучающее множество состоит лишь из значений входных переменных. Сеть распознает кластеры в обучающих данных и распределяет данные по соответствующим кластерам. Если дальше сеть встречается с набором данных, непохожим ни на один из известных образцов, она относит его к нового кластеру. Если в данных содержатся метки классов, то сеть способна решать задачи классификации.

Сеть Кохонена учится методом последовательных приближений. Начиная со случайным образом выбранного выходного расположения центров, алгоритм постепенно улучшается для кластеризации обучающих данных.

Основной итерационный алгоритм Кохонена последовательно проходит ряд эпох, на каждой эпохе обрабатывается один обучающий пример. Входные сигналы (векторы действительных чисел) последовательно предъявляются сети, желаемые выходные сигналы не определяются. После предъявления достаточного числа входных векторов, синаптические весы сети определяют кластеры.

Весы организуются так, что топологически близкие узлы чувствительны к похожим входным сигналам.

Для реализации алгоритма необходимо определить меру соседства нейронов (окрестность нейрона-победителя). Зоны соседства уменьшаются с течением времени обучения.

Даже если было найдено относительно хорошее решение, для его усовершенствования может использоваться алгоритм предельной коррекции. Алгоритм способен действовать, если нейрон-победитель находится в неправильном классе, а второй наилучший нейрон в правильном классе. Обучающий вектор должен быть близко от средней точки пространства, соединяющего эти два нейрона. Неправильный нейрон-победитель смещается из обучающего вектора, а нейрон из другого места продвигается к обучающему вектору. Эта процедура делает четкой границу между областями, где возможна неверная классификация.

Обучение сетей Кохонена может продолжаться весьма долго, так как размерность самоорганизующейся карты признаков обычно достаточно велика. Альтернативой этому методу обучения может выступать метод динамических ядер, более близкий к классическим методам распознавания образов. Классические методы кластеризации обычно минимизируют некоторую обобщенную меру близости на множестве получаемых кластеров.

Реализуются эти методы в виде итерационной процедуры. На каждой итерации метода задаются начальные значения ядер, для чего необходимо задаться  начальным количеством классов. Далее для заданных ядер определяется разбиение обучающей выборки на классы и вычисляется значение принятой меры близости. Значения ядер изменяются для оптимизации меры близости при фиксированном количестве классов. При невозрастании суммарной меры близости за определенное количество шагов алгоритм заканчивает свою работу.

Оба вышеописанных метода достаточно чувствительны к заданию начального разбиения на классы, которое определяет исходное положение ядер.  Так как оптимальное число классов может быть достаточно велико, простой перебор различных чисел часто приводит к неэффективной работе алгоритма.

Наиболее простым способом решения этой задачи в случае, когда ядра являются точками того же пространства, что и объекты, является выбор в качестве начального приближения значений ядер значений объектов. Например, первое ядро кладем равным первому объекту, второе – второму и т.д. К сожалению, этот метод не работает когда пространство ядер и пространство объектов не совпадают.

Самым универсальным способом задания начального положения ядер является задание начального разбиения объектов на классы.

При этом в начальном разбиении могут участвовать не все объекты. Далее решая задачу оптимизации ядер получаем начальные значения ядер. Далее можно использовать метод динамических ядер.

Дополнительным критерием для определения начального числа классов, близкого к реальному, может послужить плотность расположения объектов в пространстве классов. Эта плотность может быть оценена как отношение числа объектов в классе к объему класса. В свою очередь, объем класса может быть вычислен как объем шара  с центром в ядре класса и с радиусом, равным радиусу класса. В более общем случае можно раздельно оценивать радиусы класса по различным осям координат, тогда объем класса можно вычислить как объем соответствующего эллипсоида.

Более простой подход состоит в вычислении объема класса как объема куба со стороной, равной радиусу класса. При раздельном оценивании радиусов по осям координат аналогично можно вычислить объем соответствующего параллелепипеда.

Способ применения этого критерия достаточно прост. Задаемся начальным разбиением множества объектов на классы (можно изначально считать все объекты принадлежащими одному или двум классам). Затем выбираем один класс из этого множества и делим его на два, для чего используется метод динамических ядер или сеть Кохонена. Если в результате разбиения получаются классы с плотностью, не меньшей, чем исходный класс, то разбиение считается удачным и процедура повторяется для следующего класса. В противном случае результат последнего разбиения аннулируется. Эта процедура повторяется для всех классов, и если при этом  не получено ни одного удачного разбиения, то алгоритм заканчивает работу, а полученное число классов считается соответствующим их реальному количеству.

Описанный алгоритм применяется для формирования классов, соответствующих различным стоимостным группам исследуемых объектов. Для решения задачи распознавания нового объекта, т.е. отнесения исследуемого образца к той или иной стоимостной группе, также возможно применение аппарата нейросетей. Однако на этом этапе более предпочтительным представляется использование нейросетей с радиальными базисными функциями. Естественным способом проявления базиса в данном случае являются ранее определенные N кластеров. Соответственно, сеть, решающая задачу классификации, будет иметь N нейронов во входном слое и один выходной нейрон. Между ними располагается еще один скрытый слой нейронов, количество которых должно обеспечить необходимую точность распознавания и определяется по теореме Колмогорова.

Результатом распознавания исследуемого объекта является его отнесение к одному из классов, т.е. к конкретной стоимостной группе. Далее необходимо определить стоимость этого объекта, для чего нужно выполнить аппроксимацию стоимостных характеристик его класса на данный конкретный объект. Задачи аппроксимации функций многих переменных также могут быть решены с помощью нейросети, традиционно для этого наиболее подходящей считается нейросеть прямого распространения, т.е. персептрон.

Кроме входного и выходного слоя персептрон содержит несколько (чаще всего 1 или 2) скрытых слоев, при этом каждый нейрон связан со всеми нейронами следующего слоя. Входной слой нейронов реализует линейную передаточную функцию, скрытые и выходные нейроны – сигмоидную функцию. Процесс обучения такого персептрона заключается в настройке весов связей W между его слоями и может быть выполнен аналогичным образом, как для описанной выше ассоциативной сети.

Персептрон такого класса представляет собой универсальную структуру, способную аппроксимировать функции любой сложности, но его обучение, как правило, требует значительных временных затрат.

Более быстро настраиваемая разновидность персептрона – сеть с радиальными базисными функциями, в которой скрытый слой всего один и реализует потенциальные передаточные функции, которые определяются в виде:

.

Центр положения базисной функции b обычно определяется центром соответствующего кластера, параметр С представляет собой ковариационную матрицу. В ходе обучения сети настраиваются параметры Wи С, но могут также изменяться и центры b.

Чтобы определить ошибку обучения сети, необходимо просуммировать квадраты отклонения результата работы сети по всем кластерам, участвующим в обучении, от реальных цен, определенных в обучающей выборке. Для уменьшения этой ошибки обычно используется метод градиентного спуска. При этом выражение для производной весов вычисляется отдельно для связей между выходным и последним скрытым слоем и для связей между скрытыми слоями. Если в качестве нелинейной преобразующей функции нейрона используется сигмоидная функция, получаем хорошо известный метод обратного распространения ошибки.

Реализации и последовательное применение перечисленных алгоритмов может служить основой для создания интеллектуальной системы поддержки принятия решений при стоимостной оценке объектов. В ходе описываемой работы такая система была реализована в среде MATLAB. Данная среда достаточно удобна для разработки подобных систем, потому что имеет набор встроенных модулей расширения для работы с базами данных, нечеткой логикой и нейросетями. Кроме этого, система предлагает использовать язык программирования высокого уровня с удобными средствами разработки графических приложений и визуализации результатов вычислений.

Тестирование разработанной системы и ее опытная эксплуатация проводились на задачах оценки различных сортовсырой нефти. Однако данная предметная область не исчерпывает возможностей использования данной системы. Одной из перспективных областей ее возможного применения является оценка объектов недвижимости.

 

Список литературы:

1.        Бежаева З.И., Староверов О.В., Айвазян С.А. Классификация многомерных наблюдений.- М.: Статистика, 1974.- 240 с.

2.        Браверман Э.М., Мучник И.Б. Структурные методы обработки эмпирирических данных. - М.: Наука. Главная редакция физико-математической литературы. 1983. - 464 с.

3.        Гилев С.Е., Миркес Е.М. Обучение нейронных сетей // Эволюционное моделирование и кинетика. Новосибирск: Наука, 1992. С. 9-23.

4.        Браверман Э.М., Аркадьев А.Г.  Обучение машины классификации объектов.- М.: Наука, 1971.- 172 с.

Предстоящие заочные международные научно-практические конференции
XVII Международная научно-практическая конференция «Теоретические и практические проблемы  развития современной науки»
XVII Международная научно-практическая конференция «Теоретические и практические проблемы развития современной науки»
XIX Международная научно-практическая конференция «Научный поиск в современном мире»
XIX Международная научно-практическая конференция «Научный поиск в современном мире»
XVIII Международная научно-практическая конференция «Научный поиск в современном мире»
XVIII Международная научно-практическая конференция «Научный поиск в современном мире»