背景
关于使用Cocoapods打包静态库或者是Framework的文章,网上一搜一堆.可是当你读完,发现用处有限.它们的都是用最简单的场景串了一遍打包的流程,而整个过程中的多个坑,却根本没有提及.这就造成了一个假象,Cocoapods打包framework是简单愉快的,放弃原来的创建framework的形式吧!结果,当热情满满的开发者去用的时候,发现已经入了歧途了!
本人目前正在处理一款语音框架的工作,所以正好整理出来,希望能够对大家有帮助!
Cocoapods流程
关于如何安装Cocoapods
,在此就不赘述了.如果没有Cocoapods
使用经验,也不建议看这篇文章. 另外,建议将Cocoapods
升级到最新版本(包括最新的beta),升级命令如下:
gem install cocoapods --pre
创建基本的工程结构
- 通过命令创建一个规范规程(这个很重要,方便你的开发与验证)
pod lib create YouFrameworkName
- 接下来就是一些问题,根据实际情况选择.(我这开发的OC版本)
特别说明: 一定要创建Demo Application!这个对你的开发有极大的帮助!!
具体步骤也不赘述了,给大家几篇参考文章.做完就具备了基本的结构了.主要是想一块继续深入下去.
继续深入
有一个问题需要注意: 如果你选择打包.a的静态库,那么cocoapods是不会给你生成头文件的 ,这就意味着,其实,你只能打包framework.
按照上面的两篇文章做完,你会发现.握草,根本不够项目用啊.我项目还有三方的framework
,还有三方的.a
库,还想添加pch
文件...
另外,关于各种路径的问题,例如:s.source_files
和s.header_dir
这些,经常会被Cocoapods报错:pattern匹配不到任何文件.其实,只要记住一个原则:你的库路径(可能是线上git库也可能是本地git库)+你的指定路径 = 要找的文件路径,那么就一定没问题. 例如我的库路径是::git => '/Users/kenny/Documents/LTVoiceAssistant'
而我指定的s.source_files = 'LTVoiceAssistant/Classes/**/*.{c,h,hh,m,mm,cpp,a,pch}'
,它们两个拼接,正好是我各种源码文件的路径.
三方Framework和Library
在项目中,我们经常会有一些以文件形式存在的framework和.a,例如我项目中就有百度的语音识别和一个高德的.而由于某些原因,你不能用cocoapods将其管理,只能拖到项目中,cocoapods使用vendored_frameworks
和vendored_libraries
字段进行设置:
s.ios.vendored_libraries = 'LTVoiceAssistant/Classes/libBDVoiceRecognitionClient.a',
'LTVoiceAssistant/Classes/libBDSSpeechSynthesizer.a'
s.ios.vendored_frameworks = 'LTVoiceAssistant/Classes/*.framework'
pch
如果你不是从零开始,而是将其他项目的代码剥离打包framework的话,这个绝对会帮你大忙,因为cocoapods的验证,会检查你代码的依赖性,如果有照不到的头文件或者引入关系不对,是通不过验证的.podspec中,提供了两种方式添加pch文件.
方法一 : 使用s.prefix_header_contents
用法如下:
s.prefix_header_contents = '#import "AHeader.h"','#import "BHeader.h"'
可以看出,简单方便.但是也是因为简单,所以一些负责的宏之类的,你用这个是没法完成的.
方法二: 添加pch文件.
首先framework工程里(不是DemoApplication中)添加pch文件.然后将文件加入到编译的source中(如果你是拷贝进来的头文件)
最后,在podspec中,添加下面的信息:
s.prefix_header_file = 'LTVoiceAssistant/Classes/Global/LTSpeech-prefix.pch'
在cocoapods的issue中,作者特别提到了.如果报找不到,那么是Xcode没找到,不是cocoapods,所以,确保将pch加入了编译.
xib和storyboard
如果你的代码中包含Xib和Storyboard,需要注意,这几个文件是需要添加到资源中的.
s.resource = 'LTVoiceAssistant/Classes/Cells/*.xib'