Математика | ||||
Прикладной регрессионный анализ-Н.Дрейпер Москва 1973 стр.388 | ||||
Прикладной регрессионный анализ-Н.Дрейпер Москва 1973 стр.388
СОДЕРЖАНИЕ Предисловие к русскому изданию.................. 5 Глава 1. Подбор прямой методом наименьших квадратов . .... 9 .0. Введение. Потребность в статистическом анализе..... 9 .1 Линейная зависимость между двумя переменными.....13 .2. Линейная регрессия: подбор прямой...........15 .3. Точность оценки регрессии................22 .4. Исследование уравнения регрессии............25 .5. Неадекватность и «чистая» ошибка...........34 .6. Корреляция между X и У...............40 Упражнения..................... . . 43 Глава 2. Матричный подход к линейной регрессии.........53 2.0. Введение.........................53 2.1. Подбор уравнения прямой в матричных обозначениях; оценки параметров ft> и Pi •.................53 2.2. Дисперсионный анализ в матричных обозначениях . ... 63 2.3. Вычисления дисперсий и ковариаций коэффициентов Ь0 и bt в матричной форме_....................64 2.4. Дисперсия величин Y в матричных обозначениях...... 65 2.5. Резюме к матричному подходу при подборе прямой .... 65 2.6. Случай общей регрессии................ 67 2.7. Принцип «дополнительной суммы квадратов»...... 76 2.8. Ортогональные столбцы в матрице X........... 78 2.9. Частный и последовательный /"-критерий......... 80 2.10. Проверка общей линейной гипотезы в регрессионных задачах............................82 2.11. Взвешенный метод наименьших квадратов........86 2.12. Смещение регрессионных оценок.............90 Глава 3. Исследование остатков.................. 95 3.0. Введение........................ 3.1. Общий график....................... 3.2. График временной последовательности.......... 3.3. График зависимости остатков от YI........... 3.4. График зависимости остатков от независимых переменных XJt, i -= 1, 2, 3......:п..................100 3.5. Другие графики остатков................ 101 3.6. Статистики для исследования остатков..........102 3.7. Корреляция между остатками...............103 3.8. Выбросы ........................ 104 3.9. Исследование серий на графиках временной последовательности остатков......................104 Упражнения........................109 "лава 4. Две независимые переменные...............115 4.0. Введение........................ 115 4.1. Сведение множественной регрессии с двумя независимыми переменными к последовательности однофакторных линейных регрессий...................... 118 4.2. Исследование уравнения регрессии............125 Упражнения...................... О 95 96 98 99 Глава 5. Более сложные модели.................137 5.0. Введение........................137 5.1. Полиномиальные модели различных порядков-по Xj . . . 138 5.2. Модели, включающие преобразования, отличные от целых степеней.........................139 5.3. Использование «фиктивных» переменных в множественной регрессии........................ 143 5.4. Подготовка матрицы исходных данных для решения общей задачи регрессии....................150 5.5. Ортогональные полиномы................159 5.6. Преобразование матрицы X для получения ортогональных столбцов........................164 Упражнения.......................167 Глава 6. Выбор «наилучшего» уравнения регрессии ....*.... 172 6.0. Введение........................172 6.1. Метод всех возможных регрессий............173 6.2. Метод исключения...................1'77 6.3. Метод включения....................178 6.4. Шаговый регрессионный метод.............180 6.5. Две вариации четырех предыдущих методов....... 182 6.6. Ступенчатый регрессионный метод............183 6.7. Сводка МНК-уравнений, полученных описанными методами 187 6.8. Вычислительные аспекты шагового регрессионного метода 188 Упражнения......................203 Глава 7. Типичный пример....................226 7.0. Введение........................226 7.1. Задача.........................226 7.2. Исследование данных...................226- 7.3. Выбор первого фактора для включения в регрессию.....228 7.4. Построение новых переменных..............231 7.5. Включение в модель взаимодействия .........231 7.6. Расширение модели...........•........232 Упражнения......................234 Глава 8. Множественная регрессия и построение математической модели.......................... 242 8.0. Введение . . ..................... 242 8.1. Планирование процесса построения модели....... 244 8.2. Разработка математической модели.......... 247 8.3. Проверка и использование математической модели '. . . . 248 Глава 9. Приложение множественной регрессии к задачам дисперсионного анализа....................250 9.0. Введение.........................250 9.1. Односторонняя классификация..............251 9.2. Регрессионная обработка односторонней классификации с использованием исходной модели ........... 252 9'.3. Регрессионная обработка односторонней классификации: независимые нормальные уравнения ...........257 9.4. Двусторонняя классификация с равным числом наблюдении в ячейках.....................259 9.5. Регрессионная обработка двусторонней классификации с равным числом наблюдений в ячейках....... . 260 9.6. Пример: двусторонняя классификация . . ........264 9.7. Комментарии...................... 266 Упражнения........,.............266 391 Глава 10. Введение в нелинейное оценивание . . . ../... 269 10.1. Введение........................269 10.2. Метод наименьших квадратов в нелинейном случае . . .270 10.3. Оценивание параметров нелинейных систем....... 273 10.4. Пример........................282 10.5. Некоторые замечания о репараметризации модели . . . 290 j- 10.6. Геометрия линейного метода наименьших квадратов . . .292 10.7. Геометрия нелинейного метода наименьших квадратов . 302 Г Упражнения . . ,..................306 Библиография по нелинейному регрессионному анализу 308 Процентные точки ^-распределения ..................312 Процентные точки F-распределения..................313 Библиография............-.•'....-............ 315 Ответы к упражнениям.......................322 .Приложение А ...........................346 Приложение Б...........................357 Указатели ...............................377 Цена: 150руб. |
||||