| 图书基本信息 | |
| 图书名称 | 非线性规划(第3版) |
| 作者 | Dimitri P. Bertsekas |
| 定价 | 169.00元 |
| 出版社 | 清华大学出版社 |
| ISBN | 9787302482345 |
| 出版日期 | 2018-04-01 |
| 字数 | 1208000 |
| 页码 | 861 |
| 版次 | 1 |
| 装帧 | 平装-胶订 |
| 开本 | 16开 |
| 商品重量 | 0.4Kg |
| 内容简介 | |
| 本书涵盖非线性规划的主要内容,包括无约束优化、凸优化、拉格朗日乘子理论和算法、对偶理论及方法等,包含了大量的实际应用案例. 本书从无约束优化问题入手,通过直观分析和严格证明给出了无约束优化问题的*性条件,并讨论了梯度法、牛顿法、共轭方向法等基本实用算法. 进而本书将无约束优化问题的*性条件和算法推广到具有凸集约束的优化问题中,进一步讨论了处理约束问题的可行方向法、条件梯度法、梯度投影法、双度量投影法、近似算法、流形次优化方法、坐标块下降法等. 拉格朗日乘子理论和算法是非线性规划的核心内容之一,也是本书的重点. |
| 作者简介 | |
| 目录 | |
| Contents 1. Unconstrained Optimization: BasicMethods . . . . . . p. 1 1.1. OptimalityConditions . . . . . . . . .. . . . . . . . . . p. 5 1.1.1. Variational Ideas . . . . . . . . .. . . . . . . . . . . p. 5 1.1.2. MainOptimalityConditions . . . . . .. . . . . . . . . p. 15 1.2. GradientMethods –Convergence . . . . .. . . . . . . . . p. 28 1.2.1. DescentDirections and StepsizeRules. . . . . . . . . . p. 28 1.2.2. ConvergenceResults . . . . . . . . .. . . . . . . . . p. 49 1.3. GradientMethods –Rate ofConvergence .. . . . . . . . . p. 67 1.3.1. The LocalAnalysisApproach . . . . .. . . . . . . . . p. 69 1.3.2. TheRole of theConditionNumber . . .. . . . . . . . . p. 70 1.3.3. ConvergenceRateResults . . . . . . .. . . . . . . . . p. 82 1.4. Newton’sMethod andVariations . . . . .. . . . . . . . . p. 95 1.4.1. ModifiedCholeskyFactorization . . .. . . . . . . . . p. 101 1.4.2. TrustRegionMethods . . . . . . . . .. . . . . . . p. 103 1.4.3. Variants ofNewton’sMethod . . . . .. . . . . . . . p. 105 1.4.4. Least Squares andtheGauss-NewtonMethod . . . . . . p. 107 1.5. Notes and Sources . . . . . . . . . .. . . . . . . . . p. 117 2. Unconstrained Optimization: AdditionalMethods . . p. 119 2.1. ConjugateDirectionMethods . . . . . .. . . . . . . . . p. 120 2.1.1. TheConjugateGradientMethod . . . . .. . . . . . . p. 125 2.1.2. ConvergenceRateofConjugateGradientMethod . . . . p. 132 2.2. Quasi-NewtonMethods . . . . . . . . .. . . . . . . . p. 138 2.3. NonderivativeMethods . . . . . . . . .. . . . . . . . p. 148 2.3.1. CoordinateDescent . . . . . . . . .. . . . . . . . p. 149 2.3.2. Direct SearchMethods . . . . . . . .. . . . . . . . p. 154 2.4. IncrementalMethods . . . . . . . . . .. . . . . . . . p. 158 2.4.1. IncrementalGradientMethods . . . . .. . . . . . . . p. 161 2.4.2. IncrementalAggregatedGradientMethods. . . . . . . p. 172 2.4.3. IncrementalGauss-NewtonMethods . . .. . . . . . . p. 178 2.4.3. IncrementalNewtonMethods . . . . . .. . . . . . . p. 185 2.5. DistributedAsynchronousAlgorithms . .. . . . . . . . . p. 194 v vi Contents 2.5.1. TotallyandPartiallyAsynchronousAlgorithms . . . . . p. 197 2.5.2. TotallyAsynchronousConvergence . . .. . . . . . . . p. 198 2.5.3. PartiallyAsynchronousGradient-LikeAlgorithms. . . . p. 203 2.5.4. ConvergenceRateofAsynchronousAlgorithms . . . . . p. 204 2.6. Discrete-TimeOptimalControlProblems .. . . . . . . . p. 210 2.6.1. Gradient andConjugateGradientMethodsfor . . . . . . . . OptimalControl . . . . . . . . . . . . . .. . . . . p. 221 2.6.2. Newton’sMethod forOptimalControl . .. . . . . . . p. 222 2.7. SolvingNonlinearProgrammingProblems -Some . . . . . . . . PracticalGuidelines . . . . . . . . . . . .. . . . . . . p. 227 2.8. Notes and Sources . . . . . . . . . .. . . . . . . . . p. 232 3. Optimization Over a Convex Set . . . . .. . . . . p. 235 3.1. ConstrainedOptimizationProblems . . .. . . . . . . . . p. 236 3.1.1. Necessary and SufficientConditionsforOptimality . . . . p. 236 3.1.2. Existence ofOptimal Solutions . . .. . . . . . . . . p. 246 3.2. FeasibleDirections-ConditionalGradientMethod . . . . . p. 257 3.2.1. DescentDirections and StepsizeRules. . . . . . . . . p. 257 3.2.2. TheConditionalGradientMethod . . . .. . . . . . . p. 262 3.3. GradientProjectionMethods . . . . . .. . . . . . . . . p. 272 3.3.1. FeasibleDirections andStepsizeRulesBasedon . . . . . . . . Projection . . . . . . . . . . . . . . . .. . . . . p. 272 3.3.2. ConvergenceAnalysis . . . . . . . . .. . . . . . . . p. 283 3.4. Two-MetricProjectionMethods . . . . .. . . . . . . . p. 292 3.5. Manifold SuboptimizationMethods . . .. . . . . . . . . p. 298 3.6. ProximalAlgorithms . . . . . . . . . .. . . . . . . . p. 307 3.6.1. Rate ofConvergence . . . . . . . . .. . . . . . . . p. 312 3.6.2. Variants of theProximalAlgorithm . .. . . . . . . . p. 318 3.7. BlockCoordinateDescentMethods . . . .. . . . . . . . p. 323 3.7.1. Variants ofCoordinateDescent . . . .. . . . . . . . p. 327 3.8. NetworkOptimizationAlgorithms . . . .. . . . . . . . . p. 331 3.9. Notes and Sources . . . . . . . . . .. . . . . . . . . p. 338 4. LagrangeMultiplierTheory . . . . . . . .. . . . p. 343 4.1. NecessaryConditionsforEqualityConstraints . . . . . . . p. 345 4.1.1. ThePenaltyApproach . . . . . . . . .. . . . . . . p. 349 4.1.2. TheEliminationApproach . . . . . . .. . . . . . . p. 352 4.1.3. The LagrangianFunction . . . . . . .. . . . . . . . p. 356 4.2. SufficientConditions andSensitivityAnalysis . . . . . . . . p. 364 4.2.1. TheAugmentedLagrangianApproach . . .. . . . . . p. 365 4.2.2. TheFeasibleDirectionApproach . . . .. . . . . . . . p. 369 4.2.3. Sensitivity . . . . . . . . . . . .. . . . . . . . . p. 370 4.3. InequalityConstraints . . . . . . . .. . . . . . . . . . p. 376 4.3.1. Karush-Kuhn-Tucker NecessaryConditions . . . . . . . p. 378 Contents vii 4.3.2. SufficientConditions and Sensitivity. . . . . . . . . . p. 383 4.3.3. Fritz JohnOptimalityConditions . . .. . . . . . . . p. 386 4.3.4. ConstraintQualificationsandPseudonormality . . . . . p. 392 4.3.5. Abstract SetConstraints andtheTangentCone . . . . . p. 399 4.3.6. Abstract SetConstraints,Equality,and Inequality . . . . . . . Constraints . . . . . . . . . . . . . . . .. . . . . p. 415 4.4. LinearConstraints andDuality . . . . .. . . . . . . . . p. 429 4.4.1. ConvexCostFunctionandLinearConstraints . . . . . . p. 429 4.4.2. DualityTheory: ASimpleFormforLinear. . . . . . . . . . Constraints . . . . . . . . . . . . . . . .. . . . . p. 432 4.5. Notes and Sources . . . . . . . . . .. . . . . . . . . p. 441 5. Lagrange Multiplier Algorithms . . . . .. . . . . p. 445 5.1. Barrier and InteriorPointMethods . . .. . . . . . . . . p. 446 5.1.1. PathFollowingMethodsforLinearProgramming . . . . p. 450 5.1.2. Primal-DualMethodsforLinearProgramming . . . . . . p. 458 5.2. Penalty andAugmentedLagrangianMethods. . . . . . . . p. 469 5.2.1. TheQuadraticPenaltyFunctionMethod .. . . . . . . p. 471 5.2.2. MultiplierMethods –Main Ideas . . .. . . . . . . . . p. 479 5.2.3. ConvergenceAnalysisofMultiplierMethods . . . . . . . p. 488 5.2.4. Duality andSecondOrderMultiplierMethods . . . . . . p. 492 5.2.5. Nonquadratic Augmented Lagrangians -The Exponential . . . Method ofMultipliers . . . . . . . . . . .. . . . . p. 494 5.3. ExactPenalties –SequentialQuadraticProgramming . . . . p. 502 5.3.1.NondifferentiableExactPenaltyFunctions . . . . . . . p. 503 5.3.2. SequentialQuadraticProgramming . . .. . . . . . . p. 513 5.3.3. DifferentiableExactPenaltyFunctions. . . . . . . . . p. 520 5.4. LagrangianMethods . . . . . . . . . .. . . . . . . . p. 527 5.4.1. First-OrderLagrangianMethods . . . .. . . . . . . . p. 528 5.4.2. Newton-LikeMethodsforEqualityConstraints . . . . . p. 535 5.4.3. GlobalConvergence . . . . . . . . .. . . . . . . . p. 545 5.4.4. AComparisonofVariousMethods . . . .. . . . . . . p. 548 5.5. Notes and Sources . . . . . . . . . .. . . . . . . . . p. 550 6. Duality andConvexProgramming . . . . . .. . . p. 553 6.1. Duality andDualProblems . . . . . . .. . . . . . . . p. 554 6.1.1. GeometricMultipliers . . . . . . . .. . . . . . . . p. 556 6.1.2. TheWeakDualityTheorem . . . . . . .. . . . . . . p. 561 6.1.3. Primal andDualOptimal Solutions . .. . . . . . . . p. 566 6.1.4. Treatment ofEqualityConstraints . .. . . . . . . . . p. 568 6.1.5. SeparableProblems and theirGeometry. . . . . . . . p. 570 6.1.6. Additional IssuesAboutDuality . . .. . . . . . . . . p. 575 6.2. ConvexCost –LinearConstraints . . . .. . . . . . . . . p. 582 6.3. ConvexCost –ConvexConstraints . . . .. . . . . . . . p. 589 viii Contents 6.4. ConjugateFunctions andFenchelDuality .. . . . . . . . p. 598 6.4.1. ConicProgramming . . . . . . . . . .. . . . . . . p. 604 6.4.2. MonotropicProgramming . . . . . . .. . . . . . . . p. 612 6.4.3. NetworkOptimization . . . . . . . .. . . . . . . . p. 617 6.4.4. Games and theMinimaxTheorem . . . .. . . . . . . p. 620 6.4.5. ThePrimalFunction andSensitivityAnalysis . . . . . . p. 623 6.5. DiscreteOptimization andDuality . . .. . . . . . . . . p. 630 6.5.1. ExamplesofDiscreteOptimizationProblems . . . . . . p. 631 6.5.2. Branch-and-Bound . . . . . . . . . .. . . . . . . . p. 639 6.5.3. LagrangianRelaxation . . . . . . . .. . . . . . . . p. 648 6.6. Notes and Sources . . . . . . . . . .. . . . . . . . . p. 660 7. DualMethods . . . . . . . . . . . . . .. . . . p. 663 7.1. Dual Derivatives and Subgradients . .. . . . . . . . . . p. 666 7.2. Dual Ascent Methods for DifferentiableDual Problems . . . p. 673 7.2.1. CoordinateAscentforQuadraticProgramming . . . . . p. 673 7.2.2. SeparableProblemsandPrimalStrictConvexity . . . . . p. 675 7.2.3. Partitioning andDual StrictConcavity. . . . . . . . . p. 677 7.3. Proximal andAugmentedLagrangianMethods. . . . . . . p. 682 7.3.1. TheMethod ofMultipliers as aDual . .. . . . . . . . . . . ProximalAlgorithm . . . . . . . . . . . . .. . . . p. 682 7.3.2. EntropyMinimization andExponential .. . . . . . . . . . Method ofMultipliers . . . . . . . . . . .. . . . . p. 686 7.3.3.IncrementalAugmentedLagrangianMethods . . . . . . p. 687 7.4. AlternatingDirectionMethodsofMultipliers . . . . . . . . p. 691 7.4.1. ADMMApplied to SeparableProblems . .. . . . . . . p. 699 7.4.2.ConnectionsBetweenAugmentedLagrangian- . . . . . . . . RelatedMethods . . . . . . . . . . . . . .. . . . . p. 703 7.5. Subgradient-Based Optimization Methods. . . . . . . . . p. 709 7.5.1. Subgradient Methods . . . . . . . .. . . . . . . . . p. 709 7.5.2. Approximate and IncrementalSubgradient Methods . . . p. 714 7.5.3. Cutting PlaneMethods . . . . . . . .. . . . . . . . p. 717 7.5.4. Ascent andApproximateAscentMethods .. . . . . . . p. 724 7.6. DepositionMethods . . . . . . . . .. . . . . . . . p. 735 7.6.1. LagrangianRelaxation oftheCouplingConstraints . . . . p. 736 7.6.2. Deposition byRight-HandSideAllocation . . . . . . p. 739 7.7. Notes and Sources . . . . . . . . . .. . . . . . . . . p. 742 Appendix A: Mathematical Background . . . .. . . . p. 745 A.1. Vectors andMatrices . . . . . . . . .. . . . . . . . . p. 746 A.2. Norms, Sequences,Limits, andContinuity. . . . . . . . . p. 749 A.3. SquareMatrices andEigenvalues . . . .. . . . . . . . . p. 757 A.4. Symmetric andPositiveDefiniteMatrices. . . . . . . . . p. 760 A.5. Derivatives . . . . . . . . . . . . .. . . . . . . . . p. 765 Contents ix A.6. ConvergenceTheorems . . . . . . . . .. . . . . . . . p. 770 AppendixB:ConvexAnalysis . . . . . . . . .. . . p. 783 B.1. Convex Sets andFunctions . . . . . . .. . . . . . . . p. 783 B.2. Hyperplanes . . . . . . . . . . . . .. . . . . . . . . p. 793 B.3. Cones andPolyhedralConvexity . . . . .. . . . . . . . p. 796 B.4. ExtremePoints andLinearProgramming . .. . . . . . . p. 798 B.5. Differentiability Issues . . . . . . .. . . . . . . . . . . p. 803 Appendix C: Line Search Methods . . . . . .. . . . p. 809 C.1. Cubic Interpolation . . . . . . . . .. . . . . . . . . . p. 809 C.2. Quadratic Interpolation . . . . . . .. . . . . . . . . . p. 810 C.3. TheGolden SectionMethod . . . . . . .. . . . . . . . p. 812 Appendix D: Implementation of Newton’sMethod . . . p. 815 D.1. CholeskyFactorization . . . . . . . .. . . . . . . . . p. 815 D.2. Application to aModifiedNewtonMethod .. . . . . . . . p. 817 References . . . . . . . . . . . . . . . .. . . . p. 821 Index . . . . . . . . . . . . . . . . . . .. . . . p. 857 |
| 编辑推荐 | |
| 本书为解决连续优化问题提供了全面而实用的方法。内容基于严格的数学分析,但尽量用可视化的方法来讲述。本书将重点放在*的发展以及它们在很多领域的广泛的应用,例如大规模供给系统、信号处理和机器学习等。 |
| 文摘 | |
| |
| 序言 | |
这本书给我的第一感受是“挑战与启发并存”。Bertsekas 的名字本身就代表着非线性规划领域的权威,而《非线性规划(第3版)》更是凝聚了他的智慧和经验。我一直对如何有效地解决那些充满不确定性和复杂性的非线性问题感到好奇,这本书似乎为我提供了一个深入探索的入口。 我尤其期待书中对“惩罚函数法”和“障碍函数法”等内点方法的详细介绍。这些方法在解决大规模非线性规划问题时表现出色,但其理论基础和具体实现细节往往比较复杂。我希望这本书能够清晰地阐述这些方法的原理,以及它们在不同问题中的适用性。 在初步浏览时,我被书中严谨的数学表达所吸引。每一条定理、每一个推导都显得那么水到渠成,但同时又需要读者具备一定的数学功底才能完全理解。这种“挑战性”正是吸引我的地方,它促使我去不断思考和学习。 我希望这本书不仅能给我带来理论上的提升,还能在实际操作层面提供指导。例如,书中是否有关于如何选择合适的算法来处理不同规模和复杂度的非线性问题的建议?或者是否有关于如何通过数据预处理来简化问题,从而提高算法效率的技巧? 这本书给我的感觉是,它是一座“学术的山峰”,需要攀登者付出艰辛的努力,但一旦登上峰顶,便能领略到最壮丽的风景。我准备好迎接这份挑战,并期待这本书能够为我开启非线性规划领域更广阔的视野。
评分这本书的出现,简直就像是我在混沌的学术海洋中找到的一座灯塔,虽然我尚未完全潜入其深邃的理论核心,但仅仅是翻阅目录和前言,就足以让我感受到它磅礴的力量和严谨的学术态度。Bertsekas 这个名字本身就带着一种沉甸甸的学术分量,而《非线性规划(第3版)》的副标题更是直接点明了它所要攻克的数学堡垒。我注意到书中提到了很多我曾经在其他文献中零星接触到的概念,比如 KKT 条件、对偶理论、以及各种迭代算法的收敛性分析,这些都是非线性规划领域的基础,也是我一直希望能够系统深入理解的。 我特别期待书中对各种非线性优化问题的分类和处理方法的详细阐述,从凸优化到非凸优化,从约束优化到无约束优化,每一个细分领域都可能隐藏着无数的挑战和精妙的技巧。作者在序言中也提到了对算法的深入探讨,包括收敛性、稳定性和效率等方面的分析,这对我这个需要将理论应用于实际问题的读者来说至关重要。我希望书中能够提供清晰的理论推导和直观的解释,帮助我理解这些算法背后的逻辑,而不是仅仅罗列公式。 读了前几章,我被作者严谨的逻辑和清晰的思路深深吸引。书中的数学符号运用得恰到好处,每一处定义和定理都显得那么自然而然。虽然有些证明过程对我来说还需要反复推敲,但整体的叙事方式并没有让我感到生涩难懂。我尤其欣赏的是作者在介绍重要概念时,往往会辅以简明的例子,这极大地帮助了我理解抽象的数学思想。 我之前接触过一些关于优化方法的书籍,但总觉得它们在理论深度和广度上有所欠缺,要么过于偏向某一特定算法,要么在理论推导上不够严谨。这本书的出现,则弥补了我的这一遗憾。Bertsekas 教授在非线性规划领域的深厚造诣,使得这本书在学术界享有盛誉,而这次更新的版本,想必又在原有的基础上有了进一步的提升,尤其是在新算法的引入和理论的深化方面。 这本书的装帧设计也相当不错,纸张的质感和排版都显得很有档次,这对于一本厚重的学术著作来说,无疑能够提升阅读体验。虽然我还没能深入到书中的核心部分,但从目前的初步接触来看,这本书绝对是一本值得珍藏和反复研读的经典之作。它的出现,对于我这样的学习者来说,无疑是莫大的福音。
评分这本书给我一种“回归本源”的感觉,仿佛重新审视了非线性规划这门学科的基石。Bertsekas 的名字本身就代表着严谨和权威,而这本书作为他的经典之作的最新版本,更是承载了无数研究者对其智慧的期待。我最近在研究一些优化算法,感觉总是不得其法,可能就是因为对非线性规划的理解不够透彻。 我特别期待书中对“收敛性”这一概念的深入探讨。在迭代算法的世界里,收敛性是衡量一个算法好坏的关键指标,而对于非线性问题,证明收敛性往往是极其困难的。我希望这本书能够提供清晰的理论框架,让我理解各种算法是如何保证收敛的,以及在什么条件下会失效。 初步翻阅,我发现书中对数学的运用非常精准,每一个公式、每一个定理都像是经过千锤百炼。虽然有些证明过程对我来说需要仔细推敲,但我能感受到作者逻辑上的严密性。他并没有简单地给出结论,而是层层递进,引导读者一步步地走向真理。 我希望这本书不仅仅是理论的堆砌,更能在我实际应用中提供指导。例如,书中是否有关于如何选择合适的算法来解决特定非线性问题的建议?或者是否有关于如何分析问题特性以便更好地应用理论的技巧?这些都是我非常关心的。 这本书给我的感觉是,它不仅仅是一本教科书,更像是一本“武功秘籍”,里面蕴含着解决复杂非线性问题的强大力量。我需要花时间去领悟其中的精髓,但我相信,这将会极大地提升我在非线性规划领域的认知水平。
评分我对这本书的第一印象是它那种“厚重感”,不只是说纸张和页数,更多的是一种内容的扎实和理论的深度。我之前涉足过一些优化问题,但常常会遇到瓶颈,感觉在理论的根基上不够稳固。这本书的目录就展现了其结构的严谨性,从基础概念的铺陈,到各种优化方法的详细讲解,再到高级理论的探讨,一环扣一环,逻辑性非常强。 我特别关注书中对“非线性”这个关键词的深入剖析,这在我之前阅读的许多资料中,往往只是点到为止。这本书似乎对非线性规划的复杂性有着深刻的洞察,并且提供了系统性的解决方案。我期待书中能够详细介绍各种非线性问题的性质,以及作者如何巧妙地化解这些复杂性。 我已经开始阅读书中关于凸集和凸函数的章节,虽然有些内容需要反复咀嚼,但我能感受到作者在引导我一步步理解这些核心概念。他用非常精确的数学语言构建起整个理论框架,并且在必要的时候,会给出一些图示或者简短的例子来辅助理解。这种方式对我来说非常有效,让我不会迷失在纯粹的符号运算中。 我希望这本书能够提供一些关于实际应用中的案例分析,或者至少能给出一些指导,说明在面对不同类型的非线性问题时,应该如何选择和应用书中介绍的理论和方法。毕竟,理论的最终目的是为了解决实际问题,而这本书的篇幅和深度,让我有理由相信它在这方面能够提供宝贵的借鉴。 总的来说,这本书给我的感觉是“干货满满”,没有太多花哨的语言,而是直接切入主题,用严谨的数学语言阐述深刻的理论。我需要投入大量的时间和精力去消化它,但我坚信,这会是一次非常有价值的学习过程。
评分这本书给我带来的第一感觉是“系统性”。我之前学习过一些关于优化方法的书籍,但总是觉得缺乏一个完整的体系,很多知识点像是零散的碎片。而这本书,从目录的结构和内容的组织来看,都展现出一种高度的系统性和层次感。Bertsekas 教授在非线性规划领域的深厚造诣,使得这本书成为了一个不可多得的宝藏。 我尤其对书中关于“对偶理论”的阐述很感兴趣。对偶问题在很多优化问题中扮演着至关重要的角色,它能够提供问题的另一种视角,并且在很多情况下,更容易求解。我希望书中能够详细讲解对偶理论的推导过程,以及它在解决实际问题中的应用。 初步翻阅,我发现书中的数学符号运用得非常规范,每一个定义和定理都表达得清晰准确。虽然有些数学推导对于我来说需要反复思考,但我能够感受到作者在构建整个理论体系时的严谨性。他并没有回避复杂性,而是选择直面它,并提供详细的解释。 我期待书中能够提供一些关于“算法稳定性”的讨论。在非线性规划中,即使一个算法能够收敛,但如果它对初始值或数据微小的扰动非常敏感,那么它的实际应用价值就会大打折扣。我希望这本书能够在这方面有所涵盖,为我提供更全面的认识。 这本书给我的感觉是,它是一本“内功深厚”的书籍。它不像那些“速成”的指南,而是需要读者投入时间和精力去深入钻研。但我相信,通过对这本书的学习,我能够建立起对非线性规划领域更坚实的理解,为我未来的研究和实践打下坚实的基础。
本站所有内容均为互联网搜索引擎提供的公开搜索信息,本站不存储任何数据与内容,任何内容与数据均与本站无关,如有需要请联系相关搜索引擎包括但不限于百度,google,bing,sogou 等
© 2025 book.cndgn.com All Rights Reserved. 新城书站 版权所有