Анализ эффективности проведения соляно-кислотных обработок ПЗП на Югомашевском месторождении

отчет по практике

3.1 Основные положения теории статистики при прогнозе ГТМ

В НГДУ «Краснохолмскнефть» при выборе скважин для СКО учитываются геолого-промысловые показатели: нефтенасыщенная толщина пласта, пористость, проницаемость, нефтенасыщенность, вязкость пластовой нефти, динамика дебита скважины и обводненность продукции, коэффициент продуктивности скважины, история ремонтов и применения методов интенсификации притока нефти. В группе технологических факторов для проведения процесса воздействия определяются: объемы и концентрация соляной кислоты, продавочных жидкостей, а также давление и режим закачки реагентов в ПЗП.

В промысловых условиях Краснохолмского НГДУ геолого-физические и технологические показатели изменялись в широких пределах, потому и эффективность от соляно-кислотного воздействия оказалась весьма различной: в единичных случаях очень высокой (дополнительная добыча 1008,5-1411,6 т.), иногда - низкой (дополнительная добыча 2,9-20 т.), а обычно в интервале 200-550 т. на одну обработку. Проведение статистического анализа по выявлению зависимости увеличения дебита скважины и изменения притока нефти после обработки позволит с одной стороны выявить наиболее значимые показатели при проведении обработок и оптимизировать процесс, а с другой стороны - по известным и заранее заданным геолого-промысловым и технологическим показателям прогнозировать эффективность соляно-кислотного воздействия.

Реализация подобных задач возможно несколькими методами. Одним из таких методов является многофакторный регрессионный анализ [1].

Общее назначение множественной регрессии состоит в анализе связи между несколькими независимыми переменными (называемыми также регрессорами или предикторами) и зависимой переменной.

При анализе регрессионной зависимости обычно используют процедуры множественной регрессии для определения влияния на функцию отклика. Можно определить некоторое количество факторов или параметров, которые, как ожидается, оказывают влияние на результирующий параметр. Эта информация может быть использована при анализе с помощью множественной регрессии для построения регрессионного уравнения.

Как только эта, так называемая линия регрессии определена, аналитик оказывается в состоянии построить график ожидаемой (предсказанной) величины результирующего параметра. Таким образом, аналитик может определить, какие позиции недооценены (лежат ниже линии регрессии), какие находятся слишком высоко (лежат выше линии регрессии).

В общественных и естественных науках процедуры множественной регрессии широко используются в исследованиях. В общем, множественная регрессия позволяет исследователю задать вопрос (и, вероятно, получить ответ) о том, «что является лучшим предиктором для…». Термин «множественная» указывает на наличие нескольких предикторов или регрессоров, которые используются в модели. Общая вычислительная задача, которую требуется решить при анализе методом множественной регрессии, состоит в изыскании уравнении связи между независимыми переменными и параметрами характеризующим тот или иной процесс (зависимой переменной).

Метод наименьших квадратов.

По координатам из независимых переменных или переменных Х и зависимой переменной Y строится диаграмма регрессии. Целью процедуры линейной регрессии является подгонка прямой линии по точкам. А именно диаграмма строит линию регрессии так, чтобы минимизировать квадраты отклонения этой линии от наблюдаемых точек. Поэтому на эту общую процедуру иногда ссылаются как на оценивание по методу наименьших квадратов.

Уравнение регрессии.

Прямая линия на плоскости (в пространстве двух измерений) задается уравнением:

Y = a + b*X (3.1)

Более подробно: переменная Y может быть выражена через константу (а) и угловой коэффициент (b), умноженная на переменную Х. Константу иногда называют также свободным членом, а угловой коэффициент - регрессионным или В-коэффициентом.

В многомерном случае, когда имеется более одной независимой переменной, линия регрессии не может быть отображена в двумерном пространстве, однако она также может быть легко оценена. В общем случае, процедуры множественной регрессии будут оценивать параметры линейного уравнения вида:

Y = a + b1*X1 + b2*X2 +…+ bp*Xp (3.2)

Однозначный прогноз и частная корреляция.

Регрессионные коэффициенты (или В-коэффициенты) представляют независимые вклады каждой независимой переменной в предсказание зависимой переменной. Другими словами, переменная Х1, к примеру, коррелирует с переменной Y после учета влияния всех других независимых переменных. Этот тип корреляции упоминается также под названием частной корреляции. Если одна величина коррелирована с другой, то это может быть отражением того факта, что они обе коррелированы с третьей величиной или с совокупностью величин.

Линия регрессии выражает наилучшее предсказание зависимой переменной (Y) по независимым переменным (X). Однако, природа редко (если вообще когда-нибудь) бывает полностью предсказуемой и обычно имеется существенный разброс наблюдаемых точек относительно подогнанной прямой. Отклонение отдельной точки от линии регрессии (от предсказанного значения) называется остатком.

Остаточная дисперсия и Коэффициент Детерминации R2.

Чем меньше разброс значений остатков около линии регрессии по отношению к общему разбросу значений, тем лучше прогноз. Например, если связь между переменными X и Y отсутствует, то отношение остаточной изменчивости переменной Y к исходной дисперсии равно 1. Если X и Y жестко связаны, то остаточная изменчивость отсутствует, и отношение дисперсии будет равно 0. В большинстве случаев отношение будет лежать где-то между этими экстремальными значениями, т.е. между 0,0…1,0. Параметр, характеризующий совпадимость точек на диаграмме рассеяния с прямой, которая описывается некоторым линейным уравнением связи, называется R2 или коэффициентом детерминации. Это значение непосредственно интерпретируется следующим образом. Если имеется R2 равный 0,4, то изменчивость значений переменной Y около линии регрессии составляем 1-0,4 от исходной дисперсии; другими словами, 40% от исходной изменчивости могут быть объяснены, а 60% остаточной изменчивости остаются необъяснимыми. Желательно иметь объяснение если не для всей, то хотя бы для большей части исходной изменчивости. Значение R2 является индикатором степени подгонки модели к данным (значение R2 близкое к 1,0 показывает, что модель объясняет почти всю изменчивость соответствующих переменных).

Интерпретация коэффициента множественной корреляции R.

Обычно, степень зависимости двух или более предикторов (независимых переменных или переменных Х) с зависимой переменной (Y) выражается с помощью коэффициента множественной корреляции R. По определению он равен корню квадратному из коэффициента детерминации. Это неотрицательная величина, принимающая значения между 0 и 1. Для интерпретации направления связи между переменными смотрят на знаки (плюс или минус) регрессионных коэффициентов или В-коэффициентов. Если В-коэффициент положителен, то связь этой переменной с зависимой переменной положительна; если В-коэффициент отрицателен, то и связь носит отрицательный характер. Конечно, если В-коэффициент равен 0, связь между переменными отсутствует.

Таким образом, множественный регрессионный анализ позволяет вычислить значения коэффициентов регрессионной модели, оценить влияние каждой переменной и их общий вклад в оценку зависимой переменной Y.

Для оценки степени корреляции (взаимосвязи) между фактическими значениями рассчитан коэффициент корреляции R2, показывающий насколько отличаются между собой расчетные и фактические значения: если R2 стремится к 1, тогда корреляция между ними полная [5].

Делись добром ;)