Иерархия подходов к верификации данных при контроле добычи и разработки

Вусловиях глобального увеличения объемов информации консолидация, качественная обработка и анализ большого объема разнородной геолого-геофизической и промысловой информации – залог успешного развития компании «Газпром нефть». При этом главная проблема – относительно низкое качество исходных данных, что обусловлено возможными сбоями в работе датчиков (забойных, устьевых манометров, расходомеров и др.), наличием измерительной погрешности и влиянием человеческого фактора. Это существенно затрудняет оперативное принятие решений. В связи с указанным в Блоке разведки и добычи (БРД) «Газпром нефти» реализуется множество проектов по управлению данными при контроле добычи и разработки (рис. 1). Уже сделано несколько серьезных шагов: создана единая промысловая база данных (БД), автоматизированы многие рутинные операции в ключевых информа ционных системах (ИС), идет непрерывный процесс развития функционала геологической и промысловотехнологической БД, активно развиваются методы машинного обучения.
1.png
Рис. 1. Проекты компании по управлению данными при контроле добычи и разработки (Data Science – проект, направленный на разработку комплексного подхода для анализа больших объемов информации с применением методов машинного обучения)


В рамках развития и внедрения наукоемких алгоритмов верификации геолого-технологических данных в Блоке разведки и добычи компании предлагается подход, в котором приводятся в соответствие объемы данных и методы анализа (рис. 2).
2.png
Рис. 2. Направления развития алгоритмов анализа информаци

Верификация информации имеет огромное значение. Прежде чем проводить глубокий анализ данных, находить зависимости, строить модели и прогнозировать, необходимо проверять данные на корректность и согласованность. Этот этап является одним из самых трудозатратных и может занимать до 60 % всего времени, потраченного на построение модели, но им нельзя пренебрегать, так как решения, основанные на недостоверной информации, могут привести к серьезным ошибкам.
Процессы, происходящие в скважине и пласте, имеют сложную природу. Замеры одного и того же параметра, выполненные в близкие моменты времеи, могут различаться. Случайные колебания, возникающие в системе, часто имеют детерминированный характер и могут быть как важным источником информации о ее внутренних свойствах [1], так и банальными выбросами. Одна из задач – научиться различать два этих случая. Таким образом, данные в нефтегазовой отрасли имеют высокую неопределенность.
В условиях увеличения количества поступающей информации и возрастания требований к ее качеству проверять данные вручную не представляется возможным. Следовательно, актуальной становится задача внедрения в производственный процесс алгоритмов автоматизированного анализа промысловых данных. Были выделены три подхода к разработке подобных алгоритмов –на основе: базовых статистических методов, физических моделей и алгоритмов для обработки больших объемов информации – методов машинного обучения.

Статистический подход

Статистическими методами можно проверять параметры, которые по своей природе не должны сильно изменяться, находясь в непосредственной близости по расстоянию (в соседних скважинах), или по времени, или по какому-то другому признаку.
В одной из ИС была реализована проверка параметров, полученных по результатам интерпретации данных геофизических исследований скважин (РИГИС): положения кровли, подошвы пласта, отметки водонефтяного контакта (ВНК), эффективной толщины, пористости, нефтенасыщенности, водонасыщенности, проницаемости пласта.
Основная идея заключается в следующем: параметры РИГИС не должны существенно отличаться от параметров по соседним скважинам, если нет существенных неоднородностей. Таким образом, для каждой рассматриваемой скважины берутся соседние скважины, удаленные от рассматриваемой не более чем на заданное расстояние R, затем отсекаются скважины, попавшие в зону замещения и отделенные разломом (рис. 3), по оставшимся соседним скважинам (см. рис. 3, оранжевые точки) выполняется анализ. Алгоритм анализа основан на статистическом подходе и позволяет соотносить значение параметра в заданной скважине с аналогичны ми параметрами в соседних скважинах, выявляя выбросы – значения, сильно отклоняющиеся от среднего по соседним скважинам. Реализованы два статистических метода: метод Диксона и правило трех сигм (более строгое – для выявления грубых выбросов) [2].
3.png
Рис. 3. Карта месторождения, иллюстрирующая метод анализа РИГИС

Подобный подход применим для хорошо разбуренных месторождений с простой геологией, где скважины находятся на небольшом расстоянии друг от друга, их достаточно много, фациальные зоны плавно сменяют друг друга, разломов немного.

Аналитический подход

Многие параметры, замеряемые в скважине, взаимосвязаны, и изменение одного из них неизбежно приведет к изменению остальных. Так, общеизвестная формула Дарси связывает дебит скважины с создаваемой депрессией.
Другой пример – верификация обводненности на основе характеристики вытеснения. Основная идея заключается в том, чтобы восстановить характеристику вытеснения по данным истории добычи (рис. 4). Аналитическая характеристика вытеснения может быть восстановлена по модели El-Khatib[3] или Corey [4]. Верификация значения обводненности проводится в зависимости от отклонения Di рассматриваемой точки от прогнозного значения аналитической характеристики вытеснения. Таким образом, принимается решение об ее утверждении или необходи мости корректировки. Данный метод можно использовать в случае регулярной системы разработки.
4.png
Рис. 4. Верификация обводненности при помощи характеристики вытеснения – зависимость обводненности от доли извлеченных запасов

Подход, основанный на методах машинного обучения

Использование аналитических и статистических методов активно применяется для верификации и улучшения качества промысловых данных. Однако эти методы имеют ряд ограничений. Так, аналитические методы существенно зависят от априорной информации, статистические – от входных данных, и в случае задачи верификации данных итоговый результат может меняться в зависимости от выбранной модели. Использование сложных численных моделей требует большого времени для расчета, что не позволяет вести онлайн-мониторинг поступающих данных.
Для устранения отмеченных недостатков можно использовать методы Data science. Data Science – это комплексный подход к анализу больших объемов информации с применением статистических моделей и методов машинного обучения. Использование методов Data Science дает возможность обрабатывать огромные массивы данных (Big Data), выявлять новые закономерности и учитывать их в дальнейшем для поиска аномальных значений в данных, восстановления отсутствующих значений и построения корректных прогнозов.
В настоящее время методы машинного обучения слабо развиты в нефтяной отрасли, как следствие, именно этот подход видится наиболее перспективным. Однако необходимо отметить, что применение подобных методов в чистом виде будет значительно менее эффективно, чем в комплексе с аналитическими подходами (гибридные модели).
Один из наиболее распространенных алгоритмов выявления аномальных значений (резко отклоняющихся от общего тренда) – алгоритм LOF (Local Outlier Factor) [5]. Его принцип заключается в построении вероятностной плотности распределения анализируемого значения до ближайших соседних и плотности распределения ближайших соседних значений рассматриваемого объекта. Результат отработки алгоритма представлен на рис. 5. Несмотря на то, что алгоритм отработал хорошо, имеются значения, которые ошибочно были отнесены к группе аномальных, например, в момент времени 450сут (см. рис. 5). Данные значения действительно имеют относительно низкую плотность в алгоритме LOF, однако это связано с тем, что скважина была остановлена для проведения геологотехнических мероприятий, а затем успешно запущена в ра боту. Данный пример наглядно показывает, что нельзя бездумно использовать алгоритмы, требуется предварительное дообучение.

5.png
Рис. 5. Суточные замеры приемистости нагнетательной скважины

При помощи методов машинного обучения можно не только находить некорректные значения, но и решать ряд других задач:
1) находить скрытые и неявно заложенные зависимости между исходными данными;
2) увеличивать скорость обработки;
3) учитывать многомерные зависимости;
4) объединять физические и статистические модели (гибридное моделирование);
5) расширять диапазон исходных значений.
Таким образом, еще раз следует отметить важность обработки и анализа данных при контроле добычи и разработки. Своевременное выявление ошибок, контроль достоверности, согласованности и непротиворечивости данных позволят: – повысить оперативность и эффективность принятия управленческих решений, в том числе при оценке потенциала скважин; – увеличить средний срок безотказной работы скважинного оборудования; – повысить эффективность работы персонала на нефтепромысле; – сократить внеплановые простои. В условиях увеличения объема поступающей информации наиболее перспективным видится развитие направления Data Science, которое фокусируется на разработке комплексного подхода для анализа больших объемов информации с применением методов машинного обучения. В «Газпром нефти» ведется активная работа в данном направлении, к реализации нескольких проектов привлечены партнеры – инжиниринговый центр МФТИ, «Сколтех».

Список литературы

1. Мирзаджанзаде А.Х., Хасанов М.М., Бахтизин Р.Н. Моделирование процессов нефтегазодобычи. Нелинейность, неравновесность, неопределенность. – М.–Ижевск: Институт компьютерных исследований, 2004. – 368 с.
2. Шуленин В.П. Математическая статистика. Ч. 2. Непара метрическая статистика: учебник. – Томск: Изд-во НТЛ, 2012. – 388 с.
3. El-Khatib N.A. Waterflooding Performance of Communicating Stratified Reservoirs With Log-Normal Permeability Distribution // SPE 37696-MS. – 1997.
4. Brooks R.H., Corey A.T.Hydraulic properties of porous media // Colorado State Univ. Hydrol. Paper. – 1964. – № 3. – 27 p.
5. Identifying Density-based Local Outliers / M.M. Breunig, H.-P. Kriegel, R.T. Ng, J. Sander // Proceedings of the 2000 ACM SIGMOD International Conference on Management of Data. SIGMOD. – 2000. –P . 93–104.

References

1. Mirzadzhanzade A.Kh., Khasanov M.M., Bakhtizin R.N., Modelirovanie protsessov neftegazodobychi. Nelineynost', neravnovesnost', neopredelennost' (Modelling of oil and gas production processes. Nonlinearity, disequilibrium, uncertainty), Moscow-Izhevsk: Publ. of Institute of Computer Science, 2004, 368 p.
2. Shulenin V.P., Matematicheskaya statistika (Math statistics), Part 2: Neparametricheskaya statistika (Nonparametric statistics), Tomsk: NTL Publ., 2012, 388 p.
3. El-Khatib N.A., Waterflooding performance of communicating stratified reservoirs with log-normal permeability distribution, SPE 37696-MS, 1997.
4. Brooks R.H., Corey A.T., Hydraulic properties of porous media, Colorado State Univ. Hydrol. Paper, 1964, no. 3, 27 p.
5. Breunig M.M., Kriegel H.-P., Ng R.T., Sander J.,Identifying density-based local outliers, Proceedings of the 2000 ACM SIGMOD International Conference on Management of Data, SIGMOD, 2000, pp. 93–104.

Возврат к списку