众所周知,OpenStack的通信方式有两种,一种是基于HTTP协议的RESTFul API方式,另一种则是RPC调用。两种通信方式的应用场景有所不同,在OpenStack中,前者主要用于各组件之间的通信(如nova与glance的通信),而后者则用于同一组件中各个不同模块之间的通信(如nova组件中nova-compute与 kAjcs nova-scheduler的通信)。
nova中rpc调用非常多,用pycharm点点点跟函数的时候遇到rpc就会点不下去了,不解决直接就看不下去了那种多法
什么是 RPC
看不明白这个图对于看nova代码,其实不是很重要,直接忽略以后再看也可以,当务之急是解决一下看openstack代码遇到rpc就跟丢了的问题
RPC、消息队列、RESTful
这三个其实不是一个层面的东西,本质上不应该放在一起比,但是因为都用来通信,比较容易混淆就还是解释一下
RESTful:主要用于各组件之间的通信(比如nova与glance的通信),或者说用于组件对外提供调用接口 RPC:则用于同一组件中各个不同模块之间的通信(比如nova组件中nova-compute与-nova-scheduler的通信) 消息队列:用于解耦组件,也是组件间通信用的,而且会有一个队列用来暂存消息在nova中的典型rpc
nova/nova/nova/conductor/tasks/live_migrate.py
class LiveMigrationTask(base.TaskBase): def __init__(self, context, instance, destination, block_migration, disk_over_commit, migration, compute_rpcapi, servicegroup_api, scheduler_client): super(LiveMigrationTask, self).__init__(context, instance) ... def _execute(self): self._check_instance_is_active() self._check_host_is_up(self.source) if not self.destination: self.destination = self._find_destination() self.migration.dest_compute = self.destination self.migration.save() else: self._check_requested_destination() # TODO(johngarbutt) need to move complexity out of compute manager # TODO(johngarbutt) disk_over_commit? #调用 ComputeAPI 类中的 live_migration() RPC接口 return self测试数据pute_rpcapi.live_migration(self.context, HdhCmsTestcppcns测试数据 host=self.source, instance=self.instance, dest=self.destination, block_migration=self.block_migration, migration=self.migration, migrate_data=self.migrate_data)
conductor 以 compute_rpcapi.live_migration 的方式远程调用 compute 的 live_migration ,过程就是, conductor 以 RPC 的方式发出一个请求到 Queue 再被 nova-compute 接收
nova/nova/nova/compute/rpcapi.py
class ComputeAPI(object): # 这是一个RPC远程调用的方法 def live_migration(self, ctxt, instance, dest, block_migration, host, migration, migrate_data=None): args = {'migration': migration} version = '4.2' if not self.client.can_send_version(version): kAjcs version = '4.0' # 获取目标 compute 主机(DEST HOST)的RPC client,即被调用的服务进程的HostIP cctxt = self.client.prepare(server=host, version=version) # 通过目标主机对象的 RPC cliient 来调用远程过程方法 cast() ,以此来实现远程调用 cctxt.cast(ctxt, 'live_migration', instance=instance, dest=dest, block_migration=block_migration, migrate_data=migrate_data, **args) # cast()异步远程调用,不会阻塞别的进程,适合于需要长时间进行的执行过程 # cast()的第二个参数是RPC client调用的函数名,case()后面的参数会继续作为参数传入该调用函数 # cast()函数内的live_migration()函数是 manager.live_migration() 视具体实现迁移功能的函数,在manager.py内实现。
调用的时候是从 nova/nova/conductor/tasks/live_migrate.py 到 nova/nova/compute/rpcapi.py ,但是实际上是 compute 服务首先得在 rpcapi.py 提供出接口函数,然后使用者通过 - 1. import导入的方式去使用rpc调用 - 2. 类实例化传参的方式去引入
热迁移这里用的就是类实例化传参
tip: call()表示同步调用 和 http://HdhCmsTestcppcns测试数据 cast()表示异步调用
根据在 rpc.py 或者 rpcapi.py 中的 cast() 的第二个参数,去该服务下的 manager.py 中找和这个参数同名的函数(这个就是 rpc 最终想要调用的函数),我们这里是 compute_rpcapi ,所以要去找 compute 下的 mannager.py
为什么要去找mannager,是因为nova测试数据pute.manager 会一直监听 Queue ,当Queue中存在相关的 RPC 请求时,就去完成这个请求
nova/nova/nova/compute/manager.py
@wrap_exception() @wrap_instance_event(prefix='compute') @wrap_instance_fault def live_migration(self, context, dest, instance, block_migration, migration, migrate_data): """执行实时迁移。 :param context: security context :param dest: destination host :param instance: a nova.objects.instance.Instance object :param block_migration: if true, prepare for block migration :param migration: an nova.objects.Migration object :param migrate_data: implementation specific params """ self._set_migration_status(migration, 'queued') def dispatch_live_migration(*args, **kwargs): with self._live_migration_semaphore: # 调用_do_live_migration执行迁移 self._do_live_migration(*args, **kwargs) # NOTE(danms): We spawn here to return the RPC worker thread back to # the pool. Since what follows could take a really long time, we don't kAjcs # want to tie up RPC workers. utils.spawn_n(dispatch_live_migration, context, dest, instance, block_migration, migration, migrate_data)
当然实际干活的还不是 manager.py 的 def live_migration ,而是 live_migration 函数去调用 _do_live_migration ,但是之后的就是热迁移的流程,在之前的文档里写了就不展开了,反正rpc的体现就只到这里
冷迁移中还有很多例子,不一一列举了,有兴趣可以去看冷迁移源码分析这篇博客
看完例子会发现,既然原生的代码既然已经写了rpc调用,那么对应的服务肯定已经提供了rpc接口,所以实际上看到 compute_rpcapi ,可以不去 compute 下的 rpc 文件中找了,直接去 compute 下的 manager 看具体实现(不止 compute ,其他服务也一样),当然,如果需要雪确定是同步还是异步调用那还是不要偷这一步的懒。
总结
完整的rpc应该具有
组件A提供出rpc调用接口( rpc.py 或者 rpcapi.py 文件) 组件B引入组件A的rpc ( import 或者 类实例化传参 ) 组件B调用组件A的rpc(以 rpc 方式发送一个请求到消息队列) 组件A处理请求(组件A监听到发给自己的 rpc 请求会通过 manager 处理请求)如果只是看代码,那么去对应的 manager 下面找实现就可以了,但是如果自己要加就还是的明白从哪里提供的、怎样导入,何种途径接收,这样想在代码里添加自己的rpc调用才心里有数
参考文献:
https://zhuanlan.zhihu测试数据/p/36427583 https://blog.csdn.net/Jmilk/article/details/52655645 https://HdhCmsTestcnblogs测试数据/wongbingming/p/11086773.html https://blog.csdn.net/qq_33909098/article/details/118578133
到此这篇关于openstack中的rpc远程调用的文章就介绍到这了,更多相关openstack rpc调用内容请搜索我们以前的文章或继续浏览下面的相关文章希望大家以后多多支持我们!
查看更多关于openstack中的rpc远程调用的方法的详细内容...