Viewing file:      __init__.py (153.09 KB)      -rw-r--r-- Select action/file-type:    (+) |   (+) |   (+) | Code (+) | Session (+) |   (+) | SDB (+) |   (+) |   (+) |   (+) |   (+) |   (+) |
 
#!/usr/bin/python -tt # This program is free software; you can redistribute it and/or modify # it under the terms of the GNU General Public License as published by # the Free Software Foundation; either version 2 of the License, or # (at your option) any later version. # # This program is distributed in the hope that it will be useful, # but WITHOUT ANY WARRANTY; without even the implied warranty of # MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the # GNU Library General Public License for more details. # # You should have received a copy of the GNU General Public License # along with this program; if not, write to the Free Software # Foundation, Inc., 59 Temple Place - Suite 330, Boston, MA 02111-1307, USA. # Copyright 2005 Duke University
  """ The Yum RPM software updater. """
  import os import os.path import rpm import re import types import errno import time import glob import fnmatch import logging import logging.config import operator import gzip
  import yum.i18n _ = yum.i18n._ P_ = yum.i18n.P_
  try:     from iniparse.compat import ParsingError, RawConfigParser as ConfigParser except ImportError:     from ConfigParser import ParsingError, ConfigParser import Errors import rpmsack import rpmUtils.updates import rpmUtils.arch from rpmUtils.arch import getCanonArch, archDifference, canCoinstall import rpmUtils.transaction import comps import config from repos import RepoStorage import misc from parser import ConfigPreProcessor, varReplace import transactioninfo import urlgrabber from urlgrabber.grabber import URLGrabber, URLGrabError from urlgrabber.progress import format_number from packageSack import packagesNewestByNameArch, ListPackageSack import depsolve import plugins import logginglevels import yumRepo import callbacks
  import warnings warnings.simplefilter("ignore", Errors.YumFutureDeprecationWarning)
  from packages import parsePackages, YumAvailablePackage, YumLocalPackage, YumInstalledPackage, comparePoEVR from constants import * from yum.rpmtrans import RPMTransaction,SimpleCliCallBack from yum.i18n import to_unicode
  import string
  from urlgrabber.grabber import default_grabber
  __version__ = '3.2.22' __version_info__ = tuple([ int(num) for num in __version__.split('.')])
  #  Setup a default_grabber UA here that says we are yum, done using the global # so that other API users can easily add to it if they want. #  Don't do it at init time, or we'll get multiple additions if you create # multiple YumBase() objects. default_grabber.opts.user_agent += " yum/" + __version__
  class _YumPreBaseConf:     """This is the configuration interface for the YumBase configuration.        So if you want to change if plugins are on/off, or debuglevel/etc.        you tweak it here, and when yb.conf does it's thing ... it happens. """
      def __init__(self):         self.fn = '/etc/yum/yum.conf'         self.root = '/'         self.init_plugins = True         self.plugin_types = (plugins.TYPE_CORE,)         self.optparser = None         self.debuglevel = None         self.errorlevel = None         self.disabled_plugins = None         self.enabled_plugins = None         self.syslog_ident = None         self.syslog_facility = None         self.syslog_device = '/dev/log'
 
  class YumBase(depsolve.Depsolve):     """This is a primary structure and base class. It houses the objects and        methods needed to perform most things in yum. It is almost an abstract        class in that you will need to add your own class above it for most        real use."""          def __init__(self):         depsolve.Depsolve.__init__(self)         self._conf = None         self._tsInfo = None         self._rpmdb = None         self._up = None         self._comps = None         self._pkgSack = None         self._lockfile = None         self.skipped_packages = []   # packages skip by the skip-broken code         self.logger = logging.getLogger("yum.YumBase")         self.verbose_logger = logging.getLogger("yum.verbose.YumBase")         self._repos = RepoStorage(self)
          # Start with plugins disabled         self.disablePlugins()
          self.localPackages = [] # for local package handling
          self.mediagrabber = None
          self.preconf = _YumPreBaseConf()
      def __del__(self):         self.close()         self.closeRpmDB()         self.doUnlock()
      def close(self):         if self._repos:             self._repos.close()
      def _transactionDataFactory(self):         """Factory method returning TransactionData object"""         return transactioninfo.TransactionData()
      def doGenericSetup(self, cache=0):         """do a default setup for all the normal/necessary yum components,            really just a shorthand for testing"""
          self.preconf.init_plugins = False         self.conf.cache = cache
      def doConfigSetup(self, fn='/etc/yum/yum.conf', root='/', init_plugins=True,             plugin_types=(plugins.TYPE_CORE,), optparser=None, debuglevel=None,             errorlevel=None):         warnings.warn(_('doConfigSetup() will go away in a future version of Yum.\n'),                 Errors.YumFutureDeprecationWarning, stacklevel=2)
          if hasattr(self, 'preconf'):             self.preconf.fn = fn             self.preconf.root = root             self.preconf.init_plugins = init_plugins             self.preconf.plugin_types = plugin_types             self.preconf.optparser = optparser             self.preconf.debuglevel = debuglevel             self.preconf.errorlevel = errorlevel
          return self.conf              def _getConfig(self, **kwargs):         '''         Parse and load Yum's configuration files and call hooks initialise         plugins and logging. Uses self.preconf for pre-configuration,         configuration. '''
          # ' xemacs syntax hack
          if kwargs:             warnings.warn('Use .preconf instead of passing args to _getConfig')
          if self._conf:             return self._conf         conf_st = time.time()            
          if kwargs:             for arg in ('fn', 'root', 'init_plugins', 'plugin_types',                         'optparser', 'debuglevel', 'errorlevel',                         'disabled_plugins', 'enabled_plugins'):                 if arg in kwargs:                     setattr(self.preconf, arg, kwargs[arg])
          fn = self.preconf.fn         root = self.preconf.root         init_plugins = self.preconf.init_plugins         plugin_types = self.preconf.plugin_types         optparser = self.preconf.optparser         debuglevel = self.preconf.debuglevel         errorlevel = self.preconf.errorlevel         disabled_plugins = self.preconf.disabled_plugins         enabled_plugins = self.preconf.enabled_plugins         syslog_ident    = self.preconf.syslog_ident         syslog_facility = self.preconf.syslog_facility         syslog_device   = self.preconf.syslog_device
          #  We don't want people accessing/altering preconf after it becomes         # worthless. So we delete it, and thus. it'll raise AttributeError         del self.preconf
          # TODO: Remove this block when we no longer support configs outside         # of /etc/yum/         if fn == '/etc/yum/yum.conf' and not os.path.exists(fn):             # Try the old default             fn = '/etc/yum.conf'
          startupconf = config.readStartupConfig(fn, root)         if startupconf.gaftonmode:             global _             _ = yum.i18n.dummy_wrapper
          if debuglevel != None:             startupconf.debuglevel = debuglevel         if errorlevel != None:             startupconf.errorlevel = errorlevel         if syslog_ident != None:             startupconf.syslog_ident = syslog_ident         if syslog_facility != None:             startupconf.syslog_facility = syslog_facility
          self.doLoggingSetup(startupconf.debuglevel, startupconf.errorlevel,                             startupconf.syslog_ident,                             startupconf.syslog_facility, syslog_device)
          if init_plugins and startupconf.plugins:             self.doPluginSetup(optparser, plugin_types, startupconf.pluginpath,                     startupconf.pluginconfpath,disabled_plugins,enabled_plugins)
          self._conf = config.readMainConfig(startupconf)
          # run the postconfig plugin hook         self.plugins.run('postconfig')         self.yumvar = self.conf.yumvar
          self.getReposFromConfig()
          # who are we:         self.conf.uid = os.geteuid()                           self.doFileLogSetup(self.conf.uid, self.conf.logfile)         self.verbose_logger.debug('Config time: %0.3f' % (time.time() - conf_st))         self.plugins.run('init')         return self._conf         
      def doLoggingSetup(self, debuglevel, errorlevel,                        syslog_ident=None, syslog_facility=None,                        syslog_device='/dev/log'):         '''         Perform logging related setup.
          @param debuglevel: Debug logging level to use.         @param errorlevel: Error logging level to use.         '''         logginglevels.doLoggingSetup(debuglevel, errorlevel,                                      syslog_ident, syslog_facility,                                      syslog_device)
      def doFileLogSetup(self, uid, logfile):         logginglevels.setFileLog(uid, logfile)
      def getReposFromConfigFile(self, repofn, repo_age=None, validate=None):         """read in repositories from a config .repo file"""
          if repo_age is None:             repo_age = os.stat(repofn)[8]                  confpp_obj = ConfigPreProcessor(repofn, vars=self.yumvar)         parser = ConfigParser()         try:             parser.readfp(confpp_obj)         except ParsingError, e:             msg = str(e)             raise Errors.ConfigError, msg
          # Check sections in the .repo file that was just slurped up         for section in parser.sections():
              if section in ['main', 'installed']:                 continue
              # Check the repo.id against the valid chars             bad = None             for byte in section:                 if byte in string.ascii_letters:                     continue                 if byte in string.digits:                     continue                 if byte in "-_.:":                     continue                                  bad = byte                 break
              if bad:                 self.logger.warning("Bad id for repo: %s, byte = %s %d" %                                     (section, bad, section.find(bad)))                 continue
              try:                 thisrepo = self.readRepoConfig(parser, section)             except (Errors.RepoError, Errors.ConfigError), e:                 self.logger.warning(e)                 continue             else:                 thisrepo.repo_config_age = repo_age                 thisrepo.repofile = repofn
              if validate and not validate(thisrepo):                 continue                                  # Got our list of repo objects, add them to the repos             # collection             try:                 self._repos.add(thisrepo)             except Errors.RepoError, e:                 self.logger.warning(e)              def getReposFromConfig(self):         """read in repositories from config main and .repo files"""
          # Read .repo files from directories specified by the reposdir option         # (typically /etc/yum/repos.d)         repo_config_age = self.conf.config_file_age                  # Get the repos from the main yum.conf file         self.getReposFromConfigFile(self.conf.config_file_path, repo_config_age)
          for reposdir in self.conf.reposdir:             # this check makes sure that our dirs exist properly.             # if they aren't in the installroot then don't prepent the installroot path             # if we don't do this then anaconda likes to not  work.             if os.path.exists(self.conf.installroot+'/'+reposdir):                 reposdir = self.conf.installroot + '/' + reposdir
              if os.path.isdir(reposdir):                 for repofn in sorted(glob.glob('%s/*.repo' % reposdir)):                     thisrepo_age = os.stat(repofn)[8]                     if thisrepo_age < repo_config_age:                         thisrepo_age = repo_config_age                     self.getReposFromConfigFile(repofn, repo_age=thisrepo_age)
      def readRepoConfig(self, parser, section):         '''Parse an INI file section for a repository.
          @param parser: ConfParser or similar to read INI file values from.         @param section: INI file section to read.         @return: YumRepository instance.         '''         repo = yumRepo.YumRepository(section)         repo.populate(parser, section, self.conf)
          # Ensure that the repo name is set         if not repo.name:             repo.name = section             self.logger.error(_('Repository %r is missing name in configuration, '                     'using id') % section)         repo.name = to_unicode(repo.name)
          # Set attributes not from the config file         repo.basecachedir = self.conf.cachedir         repo.yumvar.update(self.conf.yumvar)         repo.cfg = parser
          return repo
      def disablePlugins(self):         '''Disable yum plugins         '''         self.plugins = plugins.DummyYumPlugins()          def doPluginSetup(self, optparser=None, plugin_types=None, searchpath=None,             confpath=None,disabled_plugins=None,enabled_plugins=None):         '''Initialise and enable yum plugins. 
          Note: _getConfig() will initialise plugins if instructed to. Only         call this method directly if not calling _getConfig() or calling         doConfigSetup(init_plugins=False).
          @param optparser: The OptionParser instance for this run (optional)         @param plugin_types: A sequence specifying the types of plugins to load.             This should be sequnce containing one or more of the             yum.plugins.TYPE_...  constants. If None (the default), all plugins             will be loaded.         @param searchpath: A list of directories to look in for plugins. A             default will be used if no value is specified.         @param confpath: A list of directories to look in for plugin             configuration files. A default will be used if no value is             specified.         @param disabled_plugins: Plugins to be disabled             @param enabled_plugins: Plugins to be enabled         '''         if isinstance(self.plugins, plugins.YumPlugins):             raise RuntimeError(_("plugins already initialised"))
          self.plugins = plugins.YumPlugins(self, searchpath, optparser,                 plugin_types, confpath, disabled_plugins, enabled_plugins)
           def doRpmDBSetup(self):         warnings.warn(_('doRpmDBSetup() will go away in a future version of Yum.\n'),                 Errors.YumFutureDeprecationWarning, stacklevel=2)
          return self._getRpmDB()          def _getRpmDB(self):         """sets up a holder object for important information from the rpmdb"""
          if self._rpmdb is None:             rpmdb_st = time.time()             self.verbose_logger.log(logginglevels.DEBUG_4,                                     _('Reading Local RPMDB'))             self._rpmdb = rpmsack.RPMDBPackageSack(root=self.conf.installroot)             self.verbose_logger.debug('rpmdb time: %0.3f' % (time.time() - rpmdb_st))         return self._rpmdb
      def closeRpmDB(self):         """closes down the instances of the rpmdb we have wangling around"""         self._rpmdb = None         self._ts = None         self._tsInfo = None         self._up = None         self.comps = None          def _deleteTs(self):         del self._ts         self._ts = None
      def doRepoSetup(self, thisrepo=None):         warnings.warn(_('doRepoSetup() will go away in a future version of Yum.\n'),                 Errors.YumFutureDeprecationWarning, stacklevel=2)
          return self._getRepos(thisrepo, True)
      def _getRepos(self, thisrepo=None, doSetup = False):         """ For each enabled repository set up the basics of the repository. """         self.conf # touch the config class first
          if doSetup:             repo_st = time.time()                     self._repos.doSetup(thisrepo)             self.verbose_logger.debug('repo time: %0.3f' % (time.time() - repo_st))                 return self._repos
      def _delRepos(self):         del self._repos         self._repos = RepoStorage(self)          def doSackSetup(self, archlist=None, thisrepo=None):         warnings.warn(_('doSackSetup() will go away in a future version of Yum.\n'),                 Errors.YumFutureDeprecationWarning, stacklevel=2)
          return self._getSacks(archlist=archlist, thisrepo=thisrepo)              def _getSacks(self, archlist=None, thisrepo=None):         """populates the package sacks for information from our repositories,            takes optional archlist for archs to include"""
          # FIXME: Fist of death ... normally we'd do either:         #         # 1. use self._pkgSack is not None, and only init. once.         # 2. auto. correctly re-init each time a repo is added/removed         #         # ...we should probably just smeg it and do #2, but it's hard and will         # probably break something (but it'll "fix" excludes).         #  #1 can't be done atm. because we did self._pkgSack and external         # tools now rely on being able to create an empty sack and then have it         # auto. re-init when they add some stuff. So we add a bit more "clever"         # and don't setup the pkgSack to not be None when it's empty. This means         # we skip excludes/includes/etc. ... but there's no packages, so         # hopefully that's ok.         if self._pkgSack is not None and thisrepo is None:             return self._pkgSack                  if thisrepo is None:             repos = 'enabled'         else:             repos = self.repos.findRepos(thisrepo)                  self.verbose_logger.debug(_('Setting up Package Sacks'))         sack_st = time.time()         if not archlist:             archlist = rpmUtils.arch.getArchList()                  archdict = {}         for arch in archlist:             archdict[arch] = 1                  self.repos.getPackageSack().setCompatArchs(archdict)         self.repos.populateSack(which=repos)         if not self.repos.getPackageSack():             return self.repos.getPackageSack() # ha ha, see above         self._pkgSack = self.repos.getPackageSack()                  self._pkgSack.excludeArchs(archlist)         self.excludePackages()                  #FIXME - this could be faster, too.         if repos == 'enabled':             repos = self.repos.listEnabled()         for repo in repos:             self.excludePackages(repo)             self.includePackages(repo)         self.plugins.run('exclude')         self._pkgSack.buildIndexes()
          # now go through and kill pkgs based on pkg.repo.cost()         self.costExcludePackages()         self.verbose_logger.debug('pkgsack time: %0.3f' % (time.time() - sack_st))         return self._pkgSack               def _delSacks(self):         """reset the package sacks back to zero - making sure to nuke the ones            in the repo objects, too - where it matters"""                     # nuke the top layer                  self._pkgSack = None                     for repo in self.repos.repos.values():             if hasattr(repo, '_resetSack'):                 repo._resetSack()             else:                 warnings.warn(_('repo object for repo %s lacks a _resetSack method\n') +                         _('therefore this repo cannot be reset.\n'),                         Errors.YumFutureDeprecationWarning, stacklevel=2)                              def doUpdateSetup(self):         warnings.warn(_('doUpdateSetup() will go away in a future version of Yum.\n'),                 Errors.YumFutureDeprecationWarning, stacklevel=2)
          return self._getUpdates()              def _getUpdates(self):         """setups up the update object in the base class and fills out the            updates, obsoletes and others lists"""                  if self._up:             return self._up                  self.verbose_logger.debug(_('Building updates object'))
          up_st = time.time()
          self._up = rpmUtils.updates.Updates(self.rpmdb.simplePkgList(), self.pkgSack.simplePkgList())         if self.conf.debuglevel >= 7:             self._up.debug = 1                  if self.conf.obsoletes:             obs_init = time.time()                 self._up.rawobsoletes = self.pkgSack.returnObsoletes(newest=True)             self.verbose_logger.debug('up:Obs Init time: %0.3f' % (time.time() - obs_init))                      self._up.exactarch = self.conf.exactarch         self._up.exactarchlist = self.conf.exactarchlist         up_pr_st = time.time()         self._up.doUpdates()         self.verbose_logger.debug('up:simple updates time: %0.3f' % (time.time() - up_pr_st))
          if self.conf.obsoletes:             obs_st = time.time()             self._up.doObsoletes()             self.verbose_logger.debug('up:obs time: %0.3f' % (time.time() - obs_st))
          cond_up_st = time.time()                             self._up.condenseUpdates()         self.verbose_logger.debug('up:condense time: %0.3f' % (time.time() - cond_up_st))         self.verbose_logger.debug('updates time: %0.3f' % (time.time() - up_st))                 return self._up          def doGroupSetup(self):         warnings.warn(_('doGroupSetup() will go away in a future version of Yum.\n'),                 Errors.YumFutureDeprecationWarning, stacklevel=2)
          self.comps = None         return self._getGroups()
      def _setGroups(self, val):         if val is None:             # if we unset the comps object, we need to undo which repos have             # been added to the group file as well             if self._repos:                 for repo in self._repos.listGroupsEnabled():                     repo.groups_added = False         self._comps = val          def _getGroups(self):         """create the groups object that will store the comps metadata            finds the repos with groups, gets their comps data and merge it            into the group object"""                  if self._comps:             return self._comps
          group_st = time.time()                     self.verbose_logger.log(logginglevels.DEBUG_4,                                 _('Getting group metadata'))         reposWithGroups = []         self.repos.doSetup()         for repo in self.repos.listGroupsEnabled():             if repo.groups_added: # already added the groups from this repo                 reposWithGroups.append(repo)                 continue                              if not repo.ready():                 raise Errors.RepoError, "Repository '%s' not yet setup" % repo             try:                 groupremote = repo.getGroupLocation()             except Errors.RepoMDError, e:                 pass             else:                 reposWithGroups.append(repo)                  # now we know which repos actually have groups files.         overwrite = self.conf.overwrite_groups         self._comps = comps.Comps(overwrite_groups = overwrite)
          for repo in reposWithGroups:             if repo.groups_added: # already added the groups from this repo                 continue                              self.verbose_logger.log(logginglevels.DEBUG_4,                 _('Adding group file from repository: %s'), repo)             groupfile = repo.getGroups()             # open it up as a file object so iterparse can cope with our gz file             if groupfile is not None and groupfile.endswith('.gz'):                 groupfile = gzip.open(groupfile)                              try:                 self._comps.add(groupfile)             except (Errors.GroupsError,Errors.CompsException), e:                 msg = _('Failed to add groups file for repository: %s - %s') % (repo, str(e))                 self.logger.critical(msg)             else:                 repo.groups_added = True
          if self._comps.compscount == 0:             raise Errors.GroupsError, _('No Groups Available in any repository')
          self._comps.compile(self.rpmdb.simplePkgList())         self.verbose_logger.debug('group time: %0.3f' % (time.time() - group_st))                         return self._comps          # properties so they auto-create themselves with defaults     repos = property(fget=lambda self: self._getRepos(),                      fset=lambda self, value: setattr(self, "_repos", value),                      fdel=lambda self: self._delRepos())     pkgSack = property(fget=lambda self: self._getSacks(),                        fset=lambda self, value: setattr(self, "_pkgSack", value),                        fdel=lambda self: self._delSacks())     conf = property(fget=lambda self: self._getConfig(),                     fset=lambda self, value: setattr(self, "_conf", value),                     fdel=lambda self: setattr(self, "_conf", None))     rpmdb = property(fget=lambda self: self._getRpmDB(),                      fset=lambda self, value: setattr(self, "_rpmdb", value),                      fdel=lambda self: setattr(self, "_rpmdb", None))     tsInfo = property(fget=lambda self: self._getTsInfo(),                        fset=lambda self,value: self._setTsInfo(value),                        fdel=lambda self: self._delTsInfo())     ts = property(fget=lambda self: self._getActionTs(), fdel=lambda self: self._deleteTs())     up = property(fget=lambda self: self._getUpdates(),                   fset=lambda self, value: setattr(self, "_up", value),                   fdel=lambda self: setattr(self, "_up", None))     comps = property(fget=lambda self: self._getGroups(),                      fset=lambda self, value: self._setGroups(value),                      fdel=lambda self: setattr(self, "_comps", None))               def doSackFilelistPopulate(self):         """convenience function to populate the repos with the filelist metadata            it also is simply to only emit a log if anything actually gets populated"""                  necessary = False                  # I can't think of a nice way of doing this, we have to have the sack here         # first or the below does nothing so...         if self.pkgSack:             for repo in self.repos.listEnabled():                 if repo in repo.sack.added:                     if 'filelists' in repo.sack.added[repo]:                         continue                     else:                         necessary = True                 else:                     necessary = True
          if necessary:             msg = _('Importing additional filelist information')             self.verbose_logger.log(logginglevels.INFO_2, msg)             self.repos.populateSack(mdtype='filelists')                 def yumUtilsMsg(self, func, prog):         """ Output a message that the tool requires the yum-utils package,             if not installed. """         if self.rpmdb.contains(name="yum-utils"):             return
          hibeg, hiend = "", ""         if hasattr(self, 'term'):             hibeg, hiend = self.term.MODE['bold'], self.term.MODE['normal']
          func(_("The program %s%s%s is found in the yum-utils package.") %              (hibeg, prog, hiend))
      def buildTransaction(self, unfinished_transactions_check=True):         """go through the packages in the transaction set, find them in the            packageSack or rpmdb, and pack up the ts accordingly"""         if (unfinished_transactions_check and             misc.find_unfinished_transactions(yumlibpath=self.conf.persistdir)):             msg = _('There are unfinished transactions remaining. You might ' \                     'consider running yum-complete-transaction first to finish them.' )             self.logger.critical(msg)             self.yumUtilsMsg(self.logger.critical, "yum-complete-transaction")             time.sleep(3)
          self.plugins.run('preresolve')         ds_st = time.time()
          (rescode, restring) = self.resolveDeps()         self._limit_installonly_pkgs()         self.plugins.run('postresolve', rescode=rescode, restring=restring)                  if self.tsInfo.changed:             (rescode, restring) = self.resolveDeps(rescode == 1)         if self.tsInfo.pkgSack is not None: # rm Transactions don't have pkgSack             self.tsInfo.pkgSack.dropCachedData()         self.rpmdb.dropCachedData()
          #  We _must_ get rid of all the used tses before we go on, so that C-c         # works for downloads / mirror failover etc.         self.rpmdb.ts = None
          # if depsolve failed and skipbroken is enabled         # The remove the broken packages from the transactions and         # Try another depsolve         if self.conf.skip_broken and rescode==1:             self.skipped_packages = []    # reset the public list of skipped packages.             sb_st = time.time()             rescode, restring = self._skipPackagesWithProblems(rescode, restring)             self._printTransaction()                     self.verbose_logger.debug('Skip-Broken time: %0.3f' % (time.time() - sb_st))
          self.verbose_logger.debug('Depsolve time: %0.3f' % (time.time() - ds_st))         return rescode, restring
      def _skipPackagesWithProblems(self, rescode, restring):         ''' Remove the packages with depsolve errors and depsolve again '''
          def _remove(po, depTree, toRemove):             if not po:                 return             self._getPackagesToRemove(po, depTree, toRemove)             # Only remove non installed packages from pkgSack             _remove_from_sack(po)
          def _remove_from_sack(po):             # get all compatible arch packages from pkgSack             # we need to remove them to so a i386 paqckages is not              # dragged in when a x86_64 is skipped.             pkgs = self._getPackagesToRemoveAllArch(po)             for pkg in pkgs:                 if not po.repoid == 'installed' and pkg not in removed_from_sack:                                  self.verbose_logger.debug('SKIPBROKEN: removing %s from pkgSack & updates' % str(po))                     self.pkgSack.delPackage(pkg)                     self.up.delPackage(pkg.pkgtup)                     removed_from_sack.add(pkg)
          # Keep removing packages & Depsolve until all errors is gone         # or the transaction is empty         count = 0         skipped_po = set()         removed_from_sack = set()         orig_restring = restring    # Keep the old error messages          looping = 0          while (len(self.po_with_problems) > 0 and rescode == 1):             count += 1             self.verbose_logger.debug(_("Skip-broken round %i"), count)             self._printTransaction()                     depTree = self._buildDepTree()             startTs = set(self.tsInfo)             toRemove = set()             for po,wpo,err in self.po_with_problems:                 # check if the problem is caused by a package in the transaction                 if not self.tsInfo.exists(po.pkgtup):                     _remove(wpo, depTree, toRemove)                 else:                     _remove(po,  depTree, toRemove)             for po in toRemove:                 skipped = self._skipFromTransaction(po)                 for skip in skipped:                     skipped_po.add(skip)                     # make sure we get the compat arch packages skip from pkgSack and up too.                     if skip not in removed_from_sack and skip.repoid == 'installed':                         _remove_from_sack(skip)             # Nothing was removed, so we still got a problem              # the first time we get here we reset the resolved members of              # tsInfo and takes a new run all members in the current transaction             if not toRemove:                  looping += 1                 if looping > 2:                     break # Bail out                 else:                     self.verbose_logger.debug('SKIPBROKEN: resetting already resovled packages (no packages to skip)' )                     self.tsInfo.resetResolved(hard=True)             rescode, restring = self.resolveDeps(True)             endTs = set(self.tsInfo)              # Check if tsInfo has changes since we started to skip packages              # if there is no changes then we got a loop.              # the first time we get here we reset the resolved members of              # tsInfo and takes a new run all members in the current transaction             if startTs-endTs == set():                 looping += 1                 if looping > 2:                     break # Bail out                 else:                     self.verbose_logger.debug('SKIPBROKEN: resetting already resovled packages (transaction not changed)' )                     self.tsInfo.resetResolved(hard=True)                                  # if we are alel clear, then we have to check that the whole current transaction              # can complete the depsolve without error, because the packages skipped             # can have broken something that passed the tests earliere.             # FIXME: We need do this in a better way.             if rescode != 1:                 self.verbose_logger.debug('SKIPBROKEN: sanity check the current transaction' )                 self.tsInfo.resetResolved(hard=True)                 self._checkMissingObsoleted() # This is totally insane, but needed :(                 rescode, restring = self.resolveDeps()         if rescode != 1:             self.verbose_logger.debug(_("Skip-broken took %i rounds "), count)             self.verbose_logger.info(_('\nPackages skipped because of dependency problems:'))             skipped_list = [p for p in skipped_po]             skipped_list.sort()             for po in skipped_list:                 msg = _("    %s from %s") % (str(po),po.repo.id)                 self.verbose_logger.info(msg)             self.skipped_packages = skipped_list    # make the skipped packages public         else:             # If we cant solve the problems the show the original error messages.             self.verbose_logger.info("Skip-broken could not solve problems")             return 1, orig_restring         return rescode, restring
      def _checkMissingObsoleted(self):         """          If multiple packages is obsoleting the same package         then the TS_OBSOLETED can get removed from the transaction         so we must make sure that they, exist and else create them         """         for txmbr in self.tsInfo:             for pkg in txmbr.obsoletes:                 if not self.tsInfo.exists(pkg.pkgtup):                     obs = self.tsInfo.addObsoleted(pkg,txmbr.po)                     self.verbose_logger.debug('SKIPBROKEN: Added missing obsoleted %s (%s)' % (pkg,txmbr.po) )             for pkg in txmbr.obsoleted_by:                 # check if the obsoleting txmbr is in the transaction                 # else remove the obsoleted txmbr                 # it clean out some really wierd cases                 if not self.tsInfo.exists(pkg.pkgtup):                     self.verbose_logger.debug('SKIPBROKEN: Remove extra obsoleted %s (%s)' % (txmbr.po,pkg) )                     self.tsInfo.remove(txmbr.po.pkgtup)
      def _getPackagesToRemoveAllArch(self,po):         ''' get all compatible arch packages in pkgSack'''         pkgs = []         if rpmUtils.arch.isMultiLibArch():             archs = rpmUtils.arch.getArchList()              n,a,e,v,r = po.pkgtup             # skip for all compat archs             for a in archs:                 pkgtup = (n,a,e,v,r)                 matched = self.pkgSack.searchNevra(n,e,v,r,a)                  pkgs.extend(matched)         else:             pkgs.append(po)         return pkgs                                                       
      def _skipFromTransaction(self,po):         skipped =  []         archs = rpmUtils.arch.getArchList()          n,a,e,v,r = po.pkgtup         # skip for all compat archs         for a in archs:             pkgtup = (n,a,e,v,r)             if self.tsInfo.exists(pkgtup):                 for txmbr in self.tsInfo.getMembers(pkgtup):                     pkg = txmbr.po                     skip = self._removePoFromTransaction(pkg)                     skipped.extend(skip)         return skipped
      def _removePoFromTransaction(self,po):         skip =  []         if self.tsInfo.exists(po.pkgtup):             self.verbose_logger.debug('SKIPBROKEN: removing %s from transaction' % str(po))             self.tsInfo.remove(po.pkgtup)             if not po.repoid == 'installed':                 skip.append(po)         return skip                     def _buildDepTree(self):         ''' create a dictionary with po and deps '''         depTree = { }         for txmbr in self.tsInfo:             for dep in txmbr.depends_on:                 depTree.setdefault(dep, []).append(txmbr.po)         # self._printDepTree(depTree)         return depTree
      def _printDepTree(self, tree):         for pkg, l in tree.iteritems():             print pkg             for p in l:                 print "\t", p
      def _printTransaction(self):         #transaction set states         state = { TS_UPDATE     : "update",                   TS_INSTALL    : "install",                   TS_TRUEINSTALL: "trueinstall",                   TS_ERASE      : "erase",                   TS_OBSOLETED  : "obsoleted",                   TS_OBSOLETING : "obsoleting",                   TS_AVAILABLE  : "available",                   TS_UPDATED    : "updated"}
          self.verbose_logger.log(logginglevels.DEBUG_2,"TSINFO: Current Transaction : %i member(s) " % len(self.tsInfo))         for txmbr in self.tsInfo:             msg = "  %-11s : %s " % (state[txmbr.output_state],txmbr.po)             self.verbose_logger.log(logginglevels.DEBUG_2, msg)             for po,rel in txmbr.relatedto:                 msg = "                   %s : %s" % (rel,po)                 self.verbose_logger.log(logginglevels.DEBUG_2, msg)                                                           def _getPackagesToRemove(self,po,deptree,toRemove):         '''         get the (related) pos to remove.         '''         toRemove.add(po)         for txmbr in self.tsInfo.getMembers(po.pkgtup):             for pkg in (txmbr.updates + txmbr.obsoletes):                 toRemove.add(pkg)                 self._getDepsToRemove(pkg, deptree, toRemove)         self._getDepsToRemove(po, deptree, toRemove)
      def _getDepsToRemove(self,po, deptree, toRemove):         for dep in deptree.get(po, []): # Loop trough all deps of po             for txmbr in self.tsInfo.getMembers(dep.pkgtup):                 for pkg in (txmbr.updates + txmbr.obsoletes):                     toRemove.add(pkg)             toRemove.add(dep)             self._getDepsToRemove(dep, deptree, toRemove)
      def runTransaction(self, cb):         """takes an rpm callback object, performs the transaction"""
          self.plugins.run('pretrans')
          errors = self.ts.run(cb.callback, '')         # ts.run() exit codes are, hmm, "creative": None means all ok, empty          # list means some errors happened in the transaction and non-empty          # list that there were errors preventing the ts from starting...                  # make resultobject - just a plain yumgenericholder object         resultobject = misc.GenericHolder         resultobject.return_code = 0         if errors is None:             pass         elif len(errors) == 0:             errstring = _('Warning: scriptlet or other non-fatal errors occurred during transaction.')             self.verbose_logger.debug(errstring)             resultobject.return_code = 1         else:             raise Errors.YumBaseError, errors                                    if not self.conf.keepcache:             self.cleanUsedHeadersPackages()                  for i in ('ts_all_fn', 'ts_done_fn'):             if hasattr(cb, i):                 fn = getattr(cb, i)                 try:                     misc.unlink_f(fn)                 except (IOError, OSError), e:                     self.logger.critical(_('Failed to remove transaction file %s') % fn)
          self.rpmdb.dropCachedData() # drop out the rpm cache so we don't step on bad hdr indexes         self.plugins.run('posttrans')         return resultobject
      def costExcludePackages(self):         """exclude packages if they have an identical package in another repo         and their repo.cost value is the greater one"""                  # check to see if the cost per repo is anything other than equal         # if all the repo.costs are equal then don't bother running things         costs = {}         for r in self.repos.listEnabled():             costs[r.cost] = 1
          if len(costs) <= 1: # if all of our costs are the same then return             return                      def _sort_by_cost(a, b):             if a.repo.cost < b.repo.cost:                 return -1             if a.repo.cost == b.repo.cost:                 return 0             if a.repo.cost > b.repo.cost:                 return 1                          pkgdict = {}         for po in self.pkgSack:             if not pkgdict.has_key(po.pkgtup):                 pkgdict[po.pkgtup] = []             pkgdict[po.pkgtup].append(po)                  for pkgs in pkgdict.values():             if len(pkgs) == 1:                 continue                              pkgs.sort(_sort_by_cost)             lowcost = pkgs[0].repo.cost             #print '%s : %s : %s' % (pkgs[0], pkgs[0].repo, pkgs[0].repo.cost)             for pkg in pkgs[1:]:                 if pkg.repo.cost > lowcost:                     msg = _('excluding for cost: %s from %s') % (pkg, pkg.repo.id)                     self.verbose_logger.log(logginglevels.DEBUG_3, msg)                     pkg.repo.sack.delPackage(pkg)             
      def excludePackages(self, repo=None):         """removes packages from packageSacks based on global exclude lists,            command line excludes and per-repository excludes, takes optional             repo object to use."""
          if "all" in self.conf.disable_excludes:             return                  # if not repo: then assume global excludes, only         # if repo: then do only that repos' packages and excludes                  if not repo: # global only             if "main" in self.conf.disable_excludes:                 return             excludelist = self.conf.exclude             repoid = None         else:             if repo.id in self.conf.disable_excludes:                 return             excludelist = repo.getExcludePkgList()             repoid = repo.id
          if len(excludelist) == 0:             return
          if not repo:             self.verbose_logger.log(logginglevels.INFO_2, _('Excluding Packages in global exclude list'))         else:             self.verbose_logger.log(logginglevels.INFO_2, _('Excluding Packages from %s'),                 repo.name)
          pkgs = self._pkgSack.returnPackages(repoid, patterns=excludelist,                                             ignore_case=False)
          for po in pkgs:             self.verbose_logger.debug('Excluding %s', po)             po.repo.sack.delPackage(po)                               self.verbose_logger.log(logginglevels.INFO_2, 'Finished')
      def includePackages(self, repo):         """removes packages from packageSacks based on list of packages, to include.            takes repoid as a mandatory argument."""                  includelist = repo.getIncludePkgList()                  if len(includelist) == 0:             return                  # FIXME: Here we have to get all packages, and then exclude those that         #        don't match. Need a "negation" flag for returnPackages().         pkglist = self.pkgSack.returnPackages(repo.id)         exactmatch, matched, unmatched = \            parsePackages(pkglist, includelist, casematch=1)                  self.verbose_logger.log(logginglevels.INFO_2,             _('Reducing %s to included packages only'), repo.name)         rmlist = []         keeplist = set(exactmatch + matched)                  for po in pkglist:             if po in keeplist:                 self.verbose_logger.debug(_('Keeping included package %s'), po)                 continue             else:                 rmlist.append(po)                  for po in rmlist:             self.verbose_logger.debug(_('Removing unmatched package %s'), po)             po.repo.sack.delPackage(po)                      self.verbose_logger.log(logginglevels.INFO_2, _('Finished'))              def doLock(self, lockfile = YUM_PID_FILE):         """perform the yum locking, raise yum-based exceptions, not OSErrors"""                  # if we're not root then we don't lock - just return nicely         if self.conf.uid != 0:             return                      root = self.conf.installroot         lockfile = root + '/' + lockfile # lock in the chroot         lockfile = os.path.normpath(lockfile) # get rid of silly preceding extra /                  mypid=str(os.getpid())             while not self._lock(lockfile, mypid, 0644):             fd = open(lockfile, 'r')             try: oldpid = int(fd.readline())             except ValueError:                 # bogus data in the pid file. Throw away.                 self._unlock(lockfile)             else:                 if oldpid == os.getpid(): # if we own the lock, we're fine                     break                 try: os.kill(oldpid, 0)                 except OSError, e:                     if e[0] == errno.ESRCH:                         # The pid doesn't exist                         self._unlock(lockfile)                     else:                         # Whoa. What the heck happened?                         msg = _('Unable to check if PID %s is active') % oldpid                         raise Errors.LockError(1, msg, oldpid)                 else:                     # Another copy seems to be running.                     msg = _('Existing lock %s: another copy is running as pid %s.') % (lockfile, oldpid)                     raise Errors.LockError(0, msg, oldpid)         # We've got the lock, store it so we can auto-unlock on __del__...         self._lockfile = lockfile          def doUnlock(self, lockfile=None):         """do the unlock for yum"""                  # if we're not root then we don't lock - just return nicely         #  Note that we can get here from __del__, so if we haven't created         # YumBase.conf we don't want to do so here as creating stuff inside         # __del__ is bad.         if hasattr(self, 'preconf') or self.conf.uid != 0:             return                  if lockfile is not None:             root = self.conf.installroot             lockfile = root + '/' + lockfile # lock in the chroot         elif self._lockfile is None:             return # Don't delete other people's lock files on __del__         else:             lockfile = self._lockfile # Get the value we locked with                  self._unlock(lockfile)         self._lockfile = None              def _lock(self, filename, contents='', mode=0777):         lockdir = os.path.dirname(filename)         try:             if not os.path.exists(lockdir):                 os.makedirs(lockdir, mode=0755)             fd = os.open(filename, os.O_EXCL|os.O_CREAT|os.O_WRONLY, mode)             except OSError, msg:             if not msg.errno == errno.EEXIST: raise msg             return 0         else:             os.write(fd, contents)             os.close(fd)             return 1          def _unlock(self, filename):         misc.unlink_f(filename)
      def verifyPkg(self, fo, po, raiseError):         """verifies the package is what we expect it to be            raiseError  = defaults to 0 - if 1 then will raise            a URLGrabError if the file does not check out.            otherwise it returns false for a failure, true for success"""         failed = False
          if type(fo) is types.InstanceType:             fo = fo.filename                  if fo != po.localPkg():             po.localpath = fo
          if not po.verifyLocalPkg():             failed = True         else:             ylp = YumLocalPackage(self.rpmdb.readOnlyTS(), fo)             if ylp.pkgtup != po.pkgtup:                 failed = True
 
          if failed:                         # if the file is wrong AND it is >= what we expected then it             # can't be redeemed. If we can, kill it and start over fresh             cursize = os.stat(fo)[6]             totsize = long(po.size)             if cursize >= totsize and not po.repo.cache:                 # if the path to the file is NOT inside the cachedir then don't                 # unlink it b/c it is probably a file:// url and possibly                 # unlinkable                 if fo.startswith(po.repo.cachedir):                     os.unlink(fo)
              if raiseError:                 raise URLGrabError(-1, _('Package does not match intended download'))             else:                 return False
                   return True                       def verifyChecksum(self, fo, checksumType, csum):         """Verify the checksum of the file versus the             provided checksum"""
          try:             filesum = misc.checksum(checksumType, fo)         except Errors.MiscError, e:             raise URLGrabError(-3, _('Could not perform checksum'))                      if filesum != csum:             raise URLGrabError(-1, _('Package does not match checksum'))                  return 0
      def downloadPkgs(self, pkglist, callback=None, callback_total=None):         def mediasort(apo, bpo):             # FIXME: we should probably also use the mediaid; else we             # could conceivably ping-pong between different disc1's             a = apo.getDiscNum()             b = bpo.getDiscNum()             if a is None and b is None:                 # Download smallest pkgs first                 return apo.size - bpo.size             if a is None:                 return -1             if b is None:                 return 1             if a < b:                 return -1             elif a > b:                 return 1             return 0                  """download list of package objects handed to you, output based on            callback, raise yum.Errors.YumBaseError on problems"""
          errors = {}         def adderror(po, msg):             errors.setdefault(po, []).append(msg)
          self.plugins.run('predownload', pkglist=pkglist)         repo_cached = False         remote_pkgs = []         remote_size = 0         for po in pkglist:             if hasattr(po, 'pkgtype') and po.pkgtype == 'local':                 continue                                  local = po.localPkg()             if os.path.exists(local):                 if not self.verifyPkg(local, po, False):                     if po.repo.cache:                         repo_cached = True                         adderror(po, _('package fails checksum but caching is '                             'enabled for %s') % po.repo.id)                 else:                     self.verbose_logger.debug(_("using local copy of %s") %(po,))                     continue                                      remote_pkgs.append(po)             remote_size += po.size                          # caching is enabled and the package              # just failed to check out there's no              # way to save this, report the error and return             if (self.conf.cache or repo_cached) and errors:                 return errors                 
          remote_pkgs.sort(mediasort)         #  This is kind of a hack and does nothing in non-Fedora versions,         # we'll fix it one way or anther soon.         if (hasattr(urlgrabber.progress, 'text_meter_total_size') and             len(remote_pkgs) > 1):             urlgrabber.progress.text_meter_total_size(remote_size)         beg_download = time.time()         i = 0         local_size = 0         for po in remote_pkgs:             #  Recheck if the file is there, works around a couple of weird             # edge cases.             local = po.localPkg()             i += 1             if os.path.exists(local):                 if self.verifyPkg(local, po, False):                     self.verbose_logger.debug(_("using local copy of %s") %(po,))                     remote_size -= po.size                     if hasattr(urlgrabber.progress, 'text_meter_total_size'):                         urlgrabber.progress.text_meter_total_size(remote_size,                                                                   local_size)                     continue                 if os.path.getsize(local) >= po.size:                     os.unlink(local)
              checkfunc = (self.verifyPkg, (po, 1), {})             dirstat = os.statvfs(po.repo.pkgdir)             if (dirstat.f_bavail * dirstat.f_bsize) <= long(po.size):                 adderror(po, _('Insufficient space in download directory %s\n'                         "    * free   %s\n"                         "    * needed %s") %                          (po.repo.pkgdir,                           format_number(dirstat.f_bavail * dirstat.f_bsize),                           format_number(po.size)))                 continue                          try:                 if i == 1 and not local_size and remote_size == po.size:                     text = os.path.basename(po.relativepath)                 else:                     text = '(%s/%s): %s' % (i, len(remote_pkgs),                                             os.path.basename(po.relativepath))                 mylocal = po.repo.getPackage(po,                                    checkfunc=checkfunc,                                    text=text,                                    cache=po.repo.http_caching != 'none',                                    )                 local_size += po.size                 if hasattr(urlgrabber.progress, 'text_meter_total_size'):                     urlgrabber.progress.text_meter_total_size(remote_size,                                                               local_size)             except Errors.RepoError, e:                 adderror(po, str(e))             else:                 po.localpath = mylocal                 if errors.has_key(po):                     del errors[po]
          if callback_total is not None and not errors:             callback_total(remote_pkgs, remote_size, beg_download)
          self.plugins.run('postdownload', pkglist=pkglist, errors=errors)
          return errors
      def verifyHeader(self, fo, po, raiseError):         """check the header out via it's naevr, internally"""         if type(fo) is types.InstanceType:             fo = fo.filename                      try:             hlist = rpm.readHeaderListFromFile(fo)             hdr = hlist[0]         except (rpm.error, IndexError):             if raiseError:                 raise URLGrabError(-1, _('Header is not complete.'))             else:                 return 0                          yip = YumInstalledPackage(hdr) # we're using YumInstalledPackage b/c                                        # it takes headers <shrug>         if yip.pkgtup != po.pkgtup:             if raiseError:                 raise URLGrabError(-1, 'Header does not match intended download')             else:                 return 0                  return 1              def downloadHeader(self, po):         """download a header from a package object.            output based on callback, raise yum.Errors.YumBaseError on problems"""
          if hasattr(po, 'pkgtype') and po.pkgtype == 'local':             return                          errors = {}         local =  po.localHdr()         repo = self.repos.getRepo(po.repoid)         if os.path.exists(local):             try:                 result = self.verifyHeader(local, po, raiseError=1)             except URLGrabError, e:                 # might add a check for length of file - if it is <                  # required doing a reget                 misc.unlink_f(local)             else:                 po.hdrpath = local                 return         else:             if self.conf.cache:                 raise Errors.RepoError, \                 _('Header not in local cache and caching-only mode enabled. Cannot download %s') % po.hdrpath                  if self.dsCallback: self.dsCallback.downloadHeader(po.name)                  try:             if not os.path.exists(repo.hdrdir):                 os.makedirs(repo.hdrdir)             checkfunc = (self.verifyHeader, (po, 1), {})             hdrpath = repo.getHeader(po, checkfunc=checkfunc,                     cache=repo.http_caching != 'none',                     )         except Errors.RepoError, e:             saved_repo_error = e             try:                 misc.unlink_f(local)             except OSError, e:                 raise Errors.RepoError, saved_repo_error             else:                 raise Errors.RepoError, saved_repo_error         else:             po.hdrpath = hdrpath             return
      def sigCheckPkg(self, po):         '''         Take a package object and attempt to verify GPG signature if required
          Returns (result, error_string) where result is:             - 0 - GPG signature verifies ok or verification is not required.             - 1 - GPG verification failed but installation of the right GPG key                   might help.             - 2 - Fatal GPG verifcation error, give up.         '''         if hasattr(po, 'pkgtype') and po.pkgtype == 'local':             check = self.conf.gpgcheck             hasgpgkey = 0         else:             repo = self.repos.getRepo(po.repoid)             check = repo.gpgcheck             hasgpgkey = not not repo.gpgkey                   if check:             ts = self.rpmdb.readOnlyTS()             sigresult = rpmUtils.miscutils.checkSig(ts, po.localPkg())             localfn = os.path.basename(po.localPkg())                          if sigresult == 0:                 result = 0                 msg = ''
              elif sigresult == 1:                 if hasgpgkey:                     result = 1                 else:                     result = 2                 msg = _('Public key for %s is not installed') % localfn
              elif sigresult == 2:                 result = 2                 msg = _('Problem opening package %s') % localfn
              elif sigresult == 3:                 if hasgpgkey:                     result = 1                 else:                     result = 2                 result = 1                 msg = _('Public key for %s is not trusted') % localfn
              elif sigresult == 4:                 result = 2                  msg = _('Package %s is not signed') % localfn                      else:             result =0             msg = ''
          return result, msg
      def cleanUsedHeadersPackages(self):         filelist = []         for txmbr in self.tsInfo:             if txmbr.po.state not in TS_INSTALL_STATES:                 continue             if txmbr.po.repoid == "installed":                 continue             if not self.repos.repos.has_key(txmbr.po.repoid):                 continue                          # make sure it's not a local file             repo = self.repos.repos[txmbr.po.repoid]             local = False             for u in repo.baseurl:                 if u.startswith("file:"):                     local = True                     break                              if local:                 filelist.extend([txmbr.po.localHdr()])             else:                 filelist.extend([txmbr.po.localPkg(), txmbr.po.localHdr()])
          # now remove them         for fn in filelist:             if not os.path.exists(fn):                 continue             try:                 misc.unlink_f(fn)             except OSError, e:                 self.logger.warning(_('Cannot remove %s'), fn)                 continue             else:                 self.verbose_logger.log(logginglevels.DEBUG_4,                     _('%s removed'), fn)              def cleanHeaders(self):         exts = ['hdr']         return self._cleanFiles(exts, 'hdrdir', 'header')
      def cleanPackages(self):         exts = ['rpm']         return self._cleanFiles(exts, 'pkgdir', 'package')
      def cleanSqlite(self):         exts = ['sqlite', 'sqlite.bz2']         return self._cleanFiles(exts, 'cachedir', 'sqlite')
      def cleanMetadata(self):         exts = ['xml.gz', 'xml', 'cachecookie', 'mirrorlist.txt', 'asc']         # Metalink is also here, but is a *.xml file         return self._cleanFiles(exts, 'cachedir', 'metadata') 
      def cleanExpireCache(self):         exts = ['cachecookie', 'mirrorlist.txt']         return self._cleanFiles(exts, 'cachedir', 'metadata')
      def _cleanFiles(self, exts, pathattr, filetype):         filelist = []         removed = 0         for ext in exts:             for repo in self.repos.listEnabled():                 path = getattr(repo, pathattr)                 if os.path.exists(path) and os.path.isdir(path):                     filelist = misc.getFileList(path, ext, filelist)
          for item in filelist:             try:                 misc.unlink_f(item)             except OSError, e:                 self.logger.critical(_('Cannot remove %s file %s'), filetype, item)                 continue             else:                 self.verbose_logger.log(logginglevels.DEBUG_4,                     _('%s file %s removed'), filetype, item)                 removed+=1         msg = _('%d %s files removed') % (removed, filetype)         return 0, [msg]
      def doPackageLists(self, pkgnarrow='all', patterns=None, showdups=None,                        ignore_case=False):         """generates lists of packages, un-reduced, based on pkgnarrow option"""
          if showdups is None:             showdups = self.conf.showdupesfromrepos         ygh = misc.GenericHolder()                  installed = []         available = []         reinstall_available = []         old_available = []         updates = []         obsoletes = []         obsoletesTuples = []         recent = []         extras = []
          ic = ignore_case         # list all packages - those installed and available, don't 'think about it'         if pkgnarrow == 'all':              dinst = {}             ndinst = {} # Newest versions by name.arch             for po in self.rpmdb.returnPackages(patterns=patterns,                                                 ignore_case=ic):                 dinst[po.pkgtup] = po                 if showdups:                     continue                 key = (po.name, po.arch)                 if key not in ndinst or po.verGT(ndinst[key]):                     ndinst[key] = po             installed = dinst.values()                                      if showdups:                 avail = self.pkgSack.returnPackages(patterns=patterns,                                                     ignore_case=ic)             else:                 try:                     avail = self.pkgSack.returnNewestByNameArch(patterns=patterns,                                                               ignore_case=ic)                 except Errors.PackageSackError:                     avail = []                          for pkg in avail:                 if showdups:                     if pkg.pkgtup in dinst:                         reinstall_available.append(pkg)                     else:                         available.append(pkg)                 else:                     key = (pkg.name, pkg.arch)                     if pkg.pkgtup in dinst:                         reinstall_available.append(pkg)                     elif key not in ndinst or pkg.verGT(ndinst[key]):                         available.append(pkg)                     else:                         old_available.append(pkg)
          # produce the updates list of tuples         elif pkgnarrow == 'updates':             for (n,a,e,v,r) in self.up.getUpdatesList():                 matches = self.pkgSack.searchNevra(name=n, arch=a, epoch=e,                                                     ver=v, rel=r)                 if len(matches) > 1:                     updates.append(matches[0])                     self.verbose_logger.log(logginglevels.DEBUG_1,                         _('More than one identical match in sack for %s'),                          matches[0])                 elif len(matches) == 1:                     updates.append(matches[0])                 else:                     self.verbose_logger.log(logginglevels.DEBUG_1,                         _('Nothing matches %s.%s %s:%s-%s from update'), n,a,e,v,r)
          # installed only         elif pkgnarrow == 'installed':             installed = self.rpmdb.returnPackages(patterns=patterns,                                                   ignore_case=ic)                  # available in a repository         elif pkgnarrow == 'available':
              if showdups:                 avail = self.pkgSack.returnPackages(patterns=patterns,                                                     ignore_case=ic)             else:                 try:                     avail = self.pkgSack.returnNewestByNameArch(patterns=patterns,                                                               ignore_case=ic)                 except Errors.PackageSackError:                     avail = []                          for pkg in avail:                 if showdups:                     if self.rpmdb.contains(po=pkg):                         reinstall_available.append(pkg)                     else:                         available.append(pkg)                 else:                     ipkgs = self.rpmdb.searchNevra(pkg.name, arch=pkg.arch)                     if ipkgs:                         latest = sorted(ipkgs, reverse=True)[0]                     if not ipkgs or pkg.verGT(latest):                         available.append(pkg)                     elif pkg.verEQ(latest):                         reinstall_available.append(pkg)                     else:                         old_available.append(pkg)
          # not in a repo but installed         elif pkgnarrow == 'extras':             # we must compare the installed set versus the repo set             # anything installed but not in a repo is an extra             avail = self.pkgSack.simplePkgList(patterns=patterns,                                                ignore_case=ic)             avail = set(avail)             for po in self.rpmdb.returnPackages(patterns=patterns,                                                 ignore_case=ic):                 if po.pkgtup not in avail:                     extras.append(po)
          # obsoleting packages (and what they obsolete)         elif pkgnarrow == 'obsoletes':             self.conf.obsoletes = 1
              for (pkgtup, instTup) in self.up.getObsoletesTuples():                 (n,a,e,v,r) = pkgtup                 pkgs = self.pkgSack.searchNevra(name=n, arch=a, ver=v, rel=r, epoch=e)                 instpo = self.rpmdb.searchPkgTuple(instTup)[0] # the first one                 for po in pkgs:                     obsoletes.append(po)                     obsoletesTuples.append((po, instpo))             if patterns:                 exactmatch, matched, unmatched = \                    parsePackages(obsoletes, patterns, casematch=not ignore_case)                 obsoletes = exactmatch + matched                 matched_obsoletes = set(obsoletes)                 nobsoletesTuples = []                 for po, instpo in obsoletesTuples:                     if po not in matched_obsoletes:                         continue                     nobsoletesTuples.append((po, instpo))                 obsoletesTuples = nobsoletesTuples             if not showdups:                 obsoletes = packagesNewestByNameArch(obsoletes)                 filt = set(obsoletes)                 nobsoletesTuples = []                 for po, instpo in obsoletesTuples:                     if po not in filt:                         continue                     nobsoletesTuples.append((po, instpo))                 obsoletesTuples = nobsoletesTuples                  # packages recently added to the repositories         elif pkgnarrow == 'recent':             now = time.time()             recentlimit = now-(self.conf.recent*86400)             ftimehash = {}             if showdups:                 avail = self.pkgSack.returnPackages(patterns=patterns,                                                     ignore_case=ic)             else:                 try:                     avail = self.pkgSack.returnNewestByNameArch(patterns=patterns,                                                               ignore_case=ic)                 except Errors.PackageSackError:                     avail = []                          for po in avail:                 ftime = int(po.filetime)                 if ftime > recentlimit:                     if not ftimehash.has_key(ftime):                         ftimehash[ftime] = [po]                     else:                         ftimehash[ftime].append(po)
              for sometime in ftimehash:                 for po in ftimehash[sometime]:                     recent.append(po)                           ygh.installed = installed         ygh.available = available         ygh.reinstall_available = reinstall_available         ygh.old_available = old_available         ygh.updates = updates         ygh.obsoletes = obsoletes         ygh.obsoletesTuples = obsoletesTuples         ygh.recent = recent         ygh.extras = extras
          return ygh
 
               def findDeps(self, pkgs):         """         Return the dependencies for a given package object list, as well         possible solutions for those dependencies.                     Returns the deps as a dict of dicts::             packageobject = [reqs] = [list of satisfying pkgs]         """                  results = {}
          for pkg in pkgs:             results[pkg] = {}              reqs = pkg.requires             reqs.sort()             pkgresults = results[pkg] # shorthand so we don't have to do the                                       # double bracket thing                          for req in reqs:                 (r,f,v) = req                 if r.startswith('rpmlib('):                     continue                                  satisfiers = []
                  for po in self.whatProvides(r, f, v):                     satisfiers.append(po)
                  pkgresults[req] = satisfiers                  return results          # pre 3.2.10 API used to always showdups, so that's the default atm.     def searchGenerator(self, fields, criteria, showdups=True, keys=False):         """Generator method to lighten memory load for some searches.            This is the preferred search function to use. Setting keys to True            will use the search keys that matched in the sorting, and return            the search keys in the results. """         sql_fields = []         for f in fields:             if RPM_TO_SQLITE.has_key(f):                 sql_fields.append(RPM_TO_SQLITE[f])             else:                 sql_fields.append(f)
          matched_values = {}
          # yield the results in order of most terms matched first         sorted_lists = {}         tmpres = []         real_crit = []         for s in criteria:             real_crit.append(s)         real_crit_lower = [] # Take the s.lower()'s out of the loop         rcl2c = {}         for s in criteria:             real_crit_lower.append(s.lower())             rcl2c[s.lower()] = s
          for sack in self.pkgSack.sacks.values():             tmpres.extend(sack.searchPrimaryFieldsMultipleStrings(sql_fields, real_crit))
          def results2sorted_lists(tmpres, sorted_lists):             for (po, count) in tmpres:                 # check the pkg for sanity                 # pop it into the sorted lists                 tmpkeys   = set()                 tmpvalues = []                 if count not in sorted_lists: sorted_lists[count] = []                 for s in real_crit_lower:                     for field in fields:                         value = to_unicode(getattr(po, field))                         if value and value.lower().find(s) != -1:                             tmpvalues.append(value)                             tmpkeys.add(rcl2c[s])
                  if len(tmpvalues) > 0:                     sorted_lists[count].append((po, tmpkeys, tmpvalues))         results2sorted_lists(tmpres, sorted_lists)
          tmpres = self.rpmdb.searchPrimaryFieldsMultipleStrings(fields,                                                                real_crit_lower,                                                                lowered=True)         # close our rpmdb connection so we can ctrl-c, kthxbai         self.closeRpmDB()
          results2sorted_lists(tmpres, sorted_lists)         del tmpres
          # By default just sort using package sorting         sort_func = operator.itemgetter(0)         if keys:             # Take into account the keys found, as well             sort_func = lambda x: "%s%s" % ("\0".join(sorted(x[1])), str(x[0]))         yielded = {}         for val in reversed(sorted(sorted_lists)):             for (po, ks, vs) in sorted(sorted_lists[val], key=sort_func):                 if not showdups and (po.name, po.arch) in yielded:                     continue
                  if keys:                     yield (po, ks, vs)                 else:                     yield (po, vs)
                  if not showdups:                     yielded[(po.name, po.arch)] = 1
 
      def searchPackages(self, fields, criteria, callback=None):         """Search specified fields for matches to criteria            optional callback specified to print out results            as you go. Callback is a simple function of:            callback(po, matched values list). It will             just return a dict of dict[po]=matched values list"""         warnings.warn(_('searchPackages() will go away in a future version of Yum.\                       Use searchGenerator() instead. \n'),                 Errors.YumFutureDeprecationWarning, stacklevel=2)                    matches = {}         match_gen = self.searchGenerator(fields, criteria)                  for (po, matched_strings) in match_gen:             if callback:                 callback(po, matched_strings)             if not matches.has_key(po):                 matches[po] = []                          matches[po].extend(matched_strings)                  return matches          def searchPackageProvides(self, args, callback=None,                               callback_has_matchfor=False):                  matches = {}         for arg in args:             arg = to_unicode(arg)             if not misc.re_glob(arg):                 isglob = False                 if arg[0] != '/':                     canBeFile = False                 else:                     canBeFile = True             else:                 isglob = True                 if arg[0] != '/' and not misc.re_glob(arg[0]):                     canBeFile = False                 else:                     canBeFile = True                              if not isglob:                 usedDepString = True                 where = self.returnPackagesByDep(arg)             else:                 usedDepString = False                 where = self.pkgSack.searchAll(arg, False)             self.verbose_logger.log(logginglevels.DEBUG_1,                 _('Searching %d packages'), len(where))                          for po in where:                 self.verbose_logger.log(logginglevels.DEBUG_2,                     _('searching package %s'), po)                 tmpvalues = []                                  if usedDepString:                     tmpvalues.append(arg)
                  if not isglob and canBeFile:                     # then it is not a globbed file we have matched it precisely                     tmpvalues.append(arg)                                      if isglob and canBeFile:                     self.verbose_logger.log(logginglevels.DEBUG_2,                         _('searching in file entries'))                     for thisfile in po.dirlist + po.filelist + po.ghostlist:                         if fnmatch.fnmatch(thisfile, arg):                             tmpvalues.append(thisfile)                 
                  self.verbose_logger.log(logginglevels.DEBUG_2,                     _('searching in provides entries'))                 for (p_name, p_flag, (p_e, p_v, p_r)) in po.provides:                     prov = misc.prco_tuple_to_string((p_name, p_flag, (p_e, p_v, p_r)))                     if not usedDepString:                         if fnmatch.fnmatch(p_name, arg) or fnmatch.fnmatch(prov, arg):                             tmpvalues.append(prov)
                  if len(tmpvalues) > 0:                     if callback: # No matchfor, on globs                         if not isglob and callback_has_matchfor:                             callback(po, tmpvalues, args)                         else:                             callback(po, tmpvalues)                     matches[po] = tmpvalues                  # installed rpms, too         taglist = ['filelist', 'dirnames', 'provides_names']         for arg in args:             if not misc.re_glob(arg):                 isglob = False                 if arg[0] != '/':                     canBeFile = False                 else:                     canBeFile = True             else:                 isglob = True                 canBeFile = True                          if not isglob:                 where = self.returnInstalledPackagesByDep(arg)                 usedDepString = True                 for po in where:                     tmpvalues = []                     msg = _('Provides-match: %s') % to_unicode(arg)                     tmpvalues.append(msg)
                      if len(tmpvalues) > 0:                         if callback:                             if callback_has_matchfor:                                 callback(po, tmpvalues, args)                             else:                                 callback(po, tmpvalues)                         matches[po] = tmpvalues
              else:                 usedDepString = False                 where = self.rpmdb                                  for po in where:                     searchlist = []                     tmpvalues = []                     for tag in taglist:                         tagdata = getattr(po, tag)                         if tagdata is None:                             continue                         if type(tagdata) is types.ListType:                             searchlist.extend(tagdata)                         else:                             searchlist.append(tagdata)                                          for item in searchlist:                         if fnmatch.fnmatch(item, arg):                             tmpvalues.append(item)                                      if len(tmpvalues) > 0:                         if callback: # No matchfor, on globs                             callback(po, tmpvalues)                         matches[po] = tmpvalues                                   return matches
      def doGroupLists(self, uservisible=0, patterns=None, ignore_case=True):         """returns two lists of groups, installed groups and available groups            optional 'uservisible' bool to tell it whether or not to return            only groups marked as uservisible"""                           installed = []         available = []
          if self.comps.compscount == 0:             raise Errors.GroupsError, _('No group data available for configured repositories')                  if patterns is None:             grps = self.comps.groups         else:             grps = self.comps.return_groups(",".join(patterns),                                             case_sensitive=not ignore_case)         for grp in grps:             if grp.installed:                 if uservisible:                     if grp.user_visible:                         installed.append(grp)                 else:                     installed.append(grp)             else:                 if uservisible:                     if grp.user_visible:                         available.append(grp)                 else:                     available.append(grp)                      return sorted(installed), sorted(available)               def groupRemove(self, grpid):         """mark all the packages in this group to be removed"""                  txmbrs_used = []                  thesegroups = self.comps.return_groups(grpid)         if not thesegroups:             raise Errors.GroupsError, _("No Group named %s exists") % grpid
          for thisgroup in thesegroups:             thisgroup.toremove = True             pkgs = thisgroup.packages             for pkg in thisgroup.packages:                 txmbrs = self.remove(name=pkg, silence_warnings=True)                 txmbrs_used.extend(txmbrs)                 for txmbr in txmbrs:                     txmbr.groups.append(thisgroup.groupid)                      return txmbrs_used
      def groupUnremove(self, grpid):         """unmark any packages in the group from being removed"""         
          thesegroups = self.comps.return_groups(grpid)         if not thesegroups:             raise Errors.GroupsError, _("No Group named %s exists") % grpid
          for thisgroup in thesegroups:             thisgroup.toremove = False             pkgs = thisgroup.packages             for pkg in thisgroup.packages:                 for txmbr in self.tsInfo:                     if txmbr.po.name == pkg and txmbr.po.state in TS_INSTALL_STATES:                         try:                             txmbr.groups.remove(grpid)                         except ValueError:                             self.verbose_logger.log(logginglevels.DEBUG_1,                                _("package %s was not marked in group %s"), txmbr.po,                                 grpid)                             continue                                                  # if there aren't any other groups mentioned then remove the pkg                         if len(txmbr.groups) == 0:                             self.tsInfo.remove(txmbr.po.pkgtup)                       def selectGroup(self, grpid, group_package_types=[], enable_group_conditionals=None):         """mark all the packages in the group to be installed            returns a list of transaction members it added to the transaction             set            Optionally take:            group_package_types=List - overrides self.conf.group_package_types            enable_group_conditionals=Bool - overrides self.conf.enable_group_conditionals         """
          if not self.comps.has_group(grpid):             raise Errors.GroupsError, _("No Group named %s exists") % grpid                  txmbrs_used = []         thesegroups = self.comps.return_groups(grpid)               if not thesegroups:             raise Errors.GroupsError, _("No Group named %s exists") % grpid
          package_types = self.conf.group_package_types         if group_package_types:             package_types = group_package_types
          for thisgroup in thesegroups:             if thisgroup.selected:                 continue                          thisgroup.selected = True                          pkgs = []             if 'mandatory' in package_types:                 pkgs.extend(thisgroup.mandatory_packages)             if 'default' in package_types:                 pkgs.extend(thisgroup.default_packages)             if 'optional' in package_types:                 pkgs.extend(thisgroup.optional_packages)
              for pkg in pkgs:                 self.verbose_logger.log(logginglevels.DEBUG_2,                     _('Adding package %s from group %s'), pkg, thisgroup.groupid)                 try:                     txmbrs = self.install(name = pkg)                 except Errors.InstallError, e:                     self.verbose_logger.debug(_('No package named %s available to be installed'),                         pkg)                 else:                     txmbrs_used.extend(txmbrs)                     for txmbr in txmbrs:                         txmbr.groups.append(thisgroup.groupid)                          group_conditionals = self.conf.enable_group_conditionals             if enable_group_conditionals is not None: # has to be this way so we can set it to False                 group_conditionals = enable_group_conditionals
              if group_conditionals:                 for condreq, cond in thisgroup.conditional_packages.iteritems():                     if self.isPackageInstalled(cond):                         try:                             txmbrs = self.install(name = condreq)                         except Errors.InstallError:                             # we don't care if the package doesn't exist                             continue                         else:                             if cond not in self.tsInfo.conditionals:                                 self.tsInfo.conditionals[cond]=[]
                          txmbrs_used.extend(txmbrs)                         for txmbr in txmbrs:                             txmbr.groups.append(thisgroup.groupid)                             self.tsInfo.conditionals[cond].append(txmbr.po)                         continue                     # Otherwise we hook into tsInfo.add to make                      # sure we'll catch it if its added later in this transaction                     pkgs = self.pkgSack.searchNevra(name=condreq)                     if pkgs:                         if rpmUtils.arch.isMultiLibArch():                             if self.conf.multilib_policy == 'best':                                 use = []                                 best = rpmUtils.arch.legitMultiArchesInSameLib()                                 best.append('noarch')                                 for pkg in pkgs:                                     if pkg.arch in best:                                         use.append(pkg)                                 pkgs = use                                                         pkgs = packagesNewestByNameArch(pkgs)
                          if not self.tsInfo.conditionals.has_key(cond):                             self.tsInfo.conditionals[cond] = []                         self.tsInfo.conditionals[cond].extend(pkgs)         return txmbrs_used
      def deselectGroup(self, grpid):         """de-mark all the packages in the group for install"""                  if not self.comps.has_group(grpid):             raise Errors.GroupsError, _("No Group named %s exists") % grpid                      thesegroups = self.comps.return_groups(grpid)         if not thesegroups:             raise Errors.GroupsError, _("No Group named %s exists") % grpid                  for thisgroup in thesegroups:             thisgroup.selected = False                          for pkgname in thisgroup.packages:                              for txmbr in self.tsInfo:                     if txmbr.po.name == pkgname and txmbr.po.state in TS_INSTALL_STATES:                         try:                              txmbr.groups.remove(grpid)                         except ValueError:                             self.verbose_logger.log(logginglevels.DEBUG_1,                                _("package %s was not marked in group %s"), txmbr.po,                                 grpid)                             continue                                                  # if there aren't any other groups mentioned then remove the pkg                         if len(txmbr.groups) == 0:                             self.tsInfo.remove(txmbr.po.pkgtup)                                                          for pkg in self.tsInfo.conditionals.get(txmbr.name, []):                                 self.tsInfo.remove(pkg.pkgtup)
               def getPackageObject(self, pkgtup):         """retrieves a packageObject from a pkgtuple - if we need            to pick and choose which one is best we better call out            to some method from here to pick the best pkgobj if there are            more than one response - right now it's more rudimentary."""                              # look it up in the self.localPackages first:         for po in self.localPackages:             if po.pkgtup == pkgtup:                 return po                          pkgs = self.pkgSack.searchPkgTuple(pkgtup)
          if len(pkgs) == 0:             raise Errors.DepError, _('Package tuple %s could not be found in packagesack') % str(pkgtup)                      if len(pkgs) > 1: # boy it'd be nice to do something smarter here FIXME             result = pkgs[0]         else:             result = pkgs[0] # which should be the only                      # this is where we could do something to figure out which repository             # is the best one to pull from                  return result
      def getInstalledPackageObject(self, pkgtup):         """returns a YumInstallPackage object for the pkgtup specified"""         warnings.warn(_('getInstalledPackageObject() will go away, use self.rpmdb.searchPkgTuple().\n'),                 Errors.YumFutureDeprecationWarning, stacklevel=2)                  po = self.rpmdb.searchPkgTuple(pkgtup)[0] # take the first one         return po              def gpgKeyCheck(self):         """checks for the presence of gpg keys in the rpmdb            returns 0 if no keys returns 1 if keys"""
          gpgkeyschecked = self.conf.cachedir + '/.gpgkeyschecked.yum'         if os.path.exists(gpgkeyschecked):             return 1                      myts = rpmUtils.transaction.initReadOnlyTransaction(root=self.conf.installroot)         myts.pushVSFlags(~(rpm._RPMVSF_NOSIGNATURES|rpm._RPMVSF_NODIGESTS))         idx = myts.dbMatch('name', 'gpg-pubkey')         keys = idx.count()         del idx         del myts                  if keys == 0:             return 0         else:             mydir = os.path.dirname(gpgkeyschecked)             if not os.path.exists(mydir):                 os.makedirs(mydir)                              fo = open(gpgkeyschecked, 'w')             fo.close()             del fo             return 1
      def returnPackagesByDep(self, depstring):         """Pass in a generic [build]require string and this function will             pass back the packages it finds providing that dep."""                  results = []         # parse the string out         #  either it is 'dep (some operator) e:v-r'         #  or /file/dep         #  or packagename         # or a full dep tuple         if type(depstring) == types.TupleType:             (depname, depflags, depver) = depstring         else:             depname = depstring             depflags = None             depver = None                      if depstring[0] != '/':                 # not a file dep - look at it for being versioned                 dep_split = depstring.split()                 if len(dep_split) == 3:                     depname, flagsymbol, depver = dep_split                     if not flagsymbol in SYMBOLFLAGS:                         raise Errors.YumBaseError, _('Invalid version flag')                     depflags = SYMBOLFLAGS[flagsymbol]                          sack = self.whatProvides(depname, depflags, depver)         results = sack.returnPackages()         return results         
      def returnPackageByDep(self, depstring):         """Pass in a generic [build]require string and this function will             pass back the best(or first) package it finds providing that dep."""                  try:             pkglist = self.returnPackagesByDep(depstring)         except Errors.YumBaseError:             raise Errors.YumBaseError, _('No Package found for %s') % depstring                  ps = ListPackageSack(pkglist)         result = self._bestPackageFromList(ps.returnNewestByNameArch())         if result is None:             raise Errors.YumBaseError, _('No Package found for %s') % depstring                  return result
      def returnInstalledPackagesByDep(self, depstring):         """Pass in a generic [build]require string and this function will             pass back the installed packages it finds providing that dep."""                  # parse the string out         #  either it is 'dep (some operator) e:v-r'         #  or /file/dep         #  or packagename         if type(depstring) == types.TupleType:             (depname, depflags, depver) = depstring         else:             depname = depstring             depflags = None             depver = None                          if depstring[0] != '/':                 # not a file dep - look at it for being versioned                 dep_split = depstring.split()                 if len(dep_split) == 3:                     depname, flagsymbol, depver = dep_split                     if not flagsymbol in SYMBOLFLAGS:                         raise Errors.YumBaseError, _('Invalid version flag')                     depflags = SYMBOLFLAGS[flagsymbol]
          return self.rpmdb.getProvides(depname, depflags, depver).keys()
      def _bestPackageFromList(self, pkglist):         """take list of package objects and return the best package object.            If the list is empty, return None.                         Note: this is not aware of multilib so make sure you're only            passing it packages of a single arch group."""                           if len(pkglist) == 0:             return None                      if len(pkglist) == 1:             return pkglist[0]
          bestlist = self._compare_providers(pkglist, None)         return bestlist[0][0]
      def bestPackagesFromList(self, pkglist, arch=None, single_name=False):         """Takes a list of packages, returns the best packages.            This function is multilib aware so that it will not compare            multilib to singlelib packages"""               returnlist = []         compatArchList = rpmUtils.arch.getArchList(arch)         multiLib = []         singleLib = []         noarch = []         for po in pkglist:             if po.arch not in compatArchList:                 continue             elif po.arch in ("noarch"):                 noarch.append(po)             elif rpmUtils.arch.isMultiLibArch(arch=po.arch):                 multiLib.append(po)             else:                 singleLib.append(po)                          # we now have three lists.  find the best package(s) of each         multi = self._bestPackageFromList(multiLib)         single = self._bestPackageFromList(singleLib)         no = self._bestPackageFromList(noarch)
          if single_name and multi and single and multi.name != single.name:             # Sinlge _must_ match multi, if we want a single package name             single = None
          # now, to figure out which arches we actually want         # if there aren't noarch packages, it's easy. multi + single         if no is None:             if multi: returnlist.append(multi)             if single: returnlist.append(single)         # if there's a noarch and it's newer than the multilib, we want         # just the noarch.  otherwise, we want multi + single         elif multi:             best = self._bestPackageFromList([multi,no])             if best.arch == "noarch":                 returnlist.append(no)             else:                 if multi: returnlist.append(multi)                 if single: returnlist.append(single)         # similar for the non-multilib case         elif single:             best = self._bestPackageFromList([single,no])             if best.arch == "noarch":                 returnlist.append(no)             else:                 returnlist.append(single)         # if there's not a multi or single lib, then we want the noarch         else:             returnlist.append(no)
          return returnlist
      def _pkg2obspkg(self, po):         """ Given a package return the package it's obsoleted by and so             we should install instead. Or None if there isn't one. """         thispkgobsdict = self.up.checkForObsolete([po.pkgtup])         if thispkgobsdict.has_key(po.pkgtup):             obsoleting = thispkgobsdict[po.pkgtup][0]             obsoleting_pkg = self.getPackageObject(obsoleting)             return obsoleting_pkg         return None
      def _test_loop(self, node, next_func):         """ Generic comp. sci. test for looping, walk the list with two pointers             moving one twice as fast as the other. If they are ever == you have             a loop. If loop we return None, if no loop the last element. """         slow = node         done = False         while True:             next = next_func(node)             if next is None and not done: return None             if next is None: return node             node = next_func(next)             if node is None: return next             done = True
              slow = next_func(slow)             if next == slow:                 return None
      def _at_groupinstall(self, pattern):         " Do groupinstall via. leading @ on the cmd line, for install/update."         assert pattern[0] == '@'         group_string = pattern[1:]         tx_return = []         for group in self.comps.return_groups(group_string):             try:                 txmbrs = self.selectGroup(group.groupid)                 tx_return.extend(txmbrs)             except yum.Errors.GroupsError:                 self.logger.critical(_('Warning: Group %s does not exist.'), group_string)                 continue         return tx_return              def _at_groupremove(self, pattern):         " Do groupremove via. leading @ on the cmd line, for remove."         assert pattern[0] == '@'         group_string = pattern[1:]         tx_return = []         try:             txmbrs = self.groupRemove(group_string)         except yum.Errors.GroupsError:             self.logger.critical(_('No group named %s exists'), group_string)         else:             tx_return.extend(txmbrs)         return tx_return
      #  Note that this returns available pkgs, and not txmbrs like the other     # _at_group* functions.     def _at_groupdowngrade(self, pattern):         " Do downgrade of a group via. leading @ on the cmd line."         assert pattern[0] == '@'         grpid = pattern[1:]
          thesegroups = self.comps.return_groups(grpid)         if not thesegroups:             raise Errors.GroupsError, _("No Group named %s exists") % grpid         pkgnames = set()         for thisgroup in thesegroups:             pkgnames.update(thisgroup.packages)         return self.pkgSack.searchNames(pkgnames)
      def _find_obsoletees(self, po):         """ Return the pkgs. that are obsoleted by the po we pass in. """         for (obstup, inst_tup) in self.up.getObsoletersTuples(name=po.name):             if po.pkgtup == obstup:                 installed_pkg =  self.rpmdb.searchPkgTuple(inst_tup)[0]                 yield installed_pkg
      def _add_prob_flags(self, *flags):         """ Add all of the passed flags to the tsInfo.probFilterFlags array. """         for flag in flags:             if flag not in self.tsInfo.probFilterFlags:                 self.tsInfo.probFilterFlags.append(flag)
      def install(self, po=None, **kwargs):         """try to mark for install the item specified. Uses provided package             object, if available. If not it uses the kwargs and gets the best            packages from the keyword options provided             returns the list of txmbr of the items it installs                        """                  pkgs = []         was_pattern = False         if po:             if isinstance(po, YumAvailablePackage) or isinstance(po, YumLocalPackage):                 pkgs.append(po)             else:                 raise Errors.InstallError, _('Package Object was not a package object instance')                      else:             if not kwargs:                 raise Errors.InstallError, _('Nothing specified to install')
              if kwargs.has_key('pattern'):                 if kwargs['pattern'][0] == '@':                     return self._at_groupinstall(kwargs['pattern'])
                  was_pattern = True                 pats = [kwargs['pattern']]                 mypkgs = self.pkgSack.returnPackages(patterns=pats,                                                       ignore_case=False)                 pkgs.extend(mypkgs)                 # if we have anything left unmatched, let's take a look for it                 # being a dep like glibc.so.2 or /foo/bar/baz                                  if not mypkgs:                     arg = kwargs['pattern']                     self.verbose_logger.debug(_('Checking for virtual provide or file-provide for %s'),                          arg)
                      try:                         mypkgs = self.returnPackagesByDep(arg)                     except yum.Errors.YumBaseError, e:                         self.logger.critical(_('No Match for argument: %s') % arg)                     else:                         # install MTA* == fail, because provides don't do globs                         # install /usr/kerberos/bin/* == success (and we want                         #                                all of the pkgs)                         if mypkgs and not misc.re_glob(arg):                             mypkgs = self.bestPackagesFromList(mypkgs,                                                                single_name=True)                         if mypkgs:                             pkgs.extend(mypkgs)                                      else:                 nevra_dict = self._nevra_kwarg_parse(kwargs)
                  pkgs = self.pkgSack.searchNevra(name=nevra_dict['name'],                      epoch=nevra_dict['epoch'], arch=nevra_dict['arch'],                      ver=nevra_dict['version'], rel=nevra_dict['release'])                              if pkgs:                 # if was_pattern or nevra-dict['arch'] is none, take the list                 # of arches based on our multilib_compat config and                  # toss out any pkgs of any arch NOT in that arch list
                                   # only do these things if we're multilib                 if rpmUtils.arch.isMultiLibArch():                     if was_pattern or not nevra_dict['arch']: # and only if they                                                               # they didn't specify an arch                         if self.conf.multilib_policy == 'best':                             pkgs_by_name = {}                             use = []                             not_added = []                             best = rpmUtils.arch.legitMultiArchesInSameLib()                             best.append('noarch')                             for pkg in pkgs:                                 if pkg.arch in best:                                     pkgs_by_name[pkg.name] = 1                                         use.append(pkg)                                   else:                                     not_added.append(pkg)                             for pkg in not_added:                                 if not pkg.name in pkgs_by_name:                                     use.append(pkg)                                                         pkgs = use                                             pkgs = packagesNewestByNameArch(pkgs)
                  pkgbyname = {}                 for pkg in pkgs:                     if not pkgbyname.has_key(pkg.name):                         pkgbyname[pkg.name] = [ pkg ]                     else:                         pkgbyname[pkg.name].append(pkg)
                  lst = []                 for pkgs in pkgbyname.values():                     lst.extend(self.bestPackagesFromList(pkgs))                 pkgs = lst
 
          if not pkgs:             # Do we still want to return errors here?             # We don't in the cases below, so I didn't here...             if 'pattern' in kwargs:                 pkgs = self.rpmdb.returnPackages(patterns=[kwargs['pattern']],                                                  ignore_case=False)             if 'name' in kwargs:                 pkgs = self.rpmdb.searchNevra(name=kwargs['name'])             # Warning here does "weird" things when doing:             # yum --disablerepo='*' install '*'             # etc. ... see RHBZ#480402             if False:                 for pkg in pkgs:                     self.verbose_logger.warning(_('Package %s installed and not available'), pkg)             if pkgs:                 return []             raise Errors.InstallError, _('No package(s) available to install')                  # FIXME - lots more checking here         #  - install instead of erase         #  - better error handling/reporting
 
          tx_return = []         for po in pkgs:             if self.tsInfo.exists(pkgtup=po.pkgtup):                 if self.tsInfo.getMembersWithState(po.pkgtup, TS_INSTALL_STATES):                     self.verbose_logger.log(logginglevels.DEBUG_1,                         _('Package: %s  - already in transaction set'), po)                     tx_return.extend(self.tsInfo.getMembers(pkgtup=po.pkgtup))                     continue                          # make sure this shouldn't be passed to update:             if self.up.updating_dict.has_key(po.pkgtup):                 txmbrs = self.update(po=po)                 tx_return.extend(txmbrs)                 continue                          #  Make sure we're not installing a package which is obsoleted by             # something else in the repo. Unless there is a obsoletion loop,             # at which point ignore everything.             obsoleting_pkg = self._test_loop(po, self._pkg2obspkg)             if obsoleting_pkg is not None:                 self.verbose_logger.warning(_('Package %s is obsoleted by %s, trying to install %s instead'),                     po.name, obsoleting_pkg.name, obsoleting_pkg)                                self.install(po=obsoleting_pkg)                 continue                          # make sure it's not already installed             if self.rpmdb.contains(po=po):                 if not self.tsInfo.getMembersWithState(po.pkgtup, TS_REMOVE_STATES):                     self.verbose_logger.warning(_('Package %s already installed and latest version'), po)                     continue
              # make sure we don't have a name.arch of this already installed             # if so pass it to update b/c it should be able to figure it out             # if self.rpmdb.contains(name=po.name, arch=po.arch) and not self.allowedMultipleInstalls(po):             if not self.allowedMultipleInstalls(po):                 found = True                 for ipkg in self.rpmdb.searchNevra(name=po.name, arch=po.arch):                     found = False                     if self.tsInfo.getMembersWithState(ipkg.pkgtup, TS_REMOVE_STATES):                         found = True                         break                 if not found:                     self.verbose_logger.warning(_('Package matching %s already installed. Checking for update.'), po)                                 txmbrs = self.update(po=po)                     tx_return.extend(txmbrs)                     continue
                               # at this point we are going to mark the pkg to be installed, make sure             # it's not an older package that is allowed in due to multiple installs             # or some other oddity. If it is - then modify the problem filter to cope                          for ipkg in self.rpmdb.searchNevra(name=po.name, arch=po.arch):                 if ipkg.verEQ(po):                     self._add_prob_flags(rpm.RPMPROB_FILTER_REPLACEPKG,                                          rpm.RPMPROB_FILTER_REPLACENEWFILES,                                          rpm.RPMPROB_FILTER_REPLACEOLDFILES)                     #  Yum needs the remove to happen before we allow the                     # install of the same version. But rpm doesn't like that                     # as it then has an install which removes the old version                     # and a remove, which also tries to remove the old version.                     self.tsInfo.remove(ipkg.pkgtup)                     break                 if ipkg.verGT(po):                     self._add_prob_flags(rpm.RPMPROB_FILTER_OLDPACKAGE)                     break                          # it doesn't obsolete anything. If it does, mark that in the tsInfo, too             if po.pkgtup in self.up.getObsoletesList(name=po.name):                 for obsoletee in self._find_obsoletees(po):                     txmbr = self.tsInfo.addObsoleting(po, obsoletee)                     self.tsInfo.addObsoleted(obsoletee, po)                     tx_return.append(txmbr)             else:                 txmbr = self.tsInfo.addInstall(po)                 tx_return.append(txmbr)                  return tx_return
      def _check_new_update_provides(self, opkg, npkg):         """ Check for any difference in the provides of the old and new update             that is needed by the transaction. If so we "update" those pkgs             too, to the latest version. """         oprovs = set(opkg.returnPrco('provides'))         nprovs = set(npkg.returnPrco('provides'))         for prov in oprovs.difference(nprovs):             reqs = self.tsInfo.getRequires(*prov)             for pkg in reqs:                 for req in reqs[pkg]:                     if not npkg.inPrcoRange('provides', req):                         naTup = (pkg.name, pkg.arch)                         for pkg in self.pkgSack.returnNewestByNameArch(naTup):                             self.update(po=pkg)                         break
      def _newer_update_in_trans(self, pkgtup, available_pkg):         """ We return True if there is a newer package already in the             transaction. If there is an older one, we remove it (and update any             deps. that aren't satisfied by the newer pkg) and return False so             we'll update to this newer pkg. """         found = False         for txmbr in self.tsInfo.getMembersWithState(pkgtup, [TS_UPDATED]):             count = 0             for po in txmbr.updated_by:                 if available_pkg.verLE(po):                     count += 1                 else:                     for ntxmbr in self.tsInfo.getMembers(po.pkgtup):                         self.tsInfo.remove(ntxmbr.po.pkgtup)                         self._check_new_update_provides(ntxmbr.po,                                                         available_pkg)             if count:                 found = True             else:                 self.tsInfo.remove(txmbr.po.pkgtup)         return found
      def update(self, po=None, requiringPo=None, **kwargs):         """try to mark for update the item(s) specified.              po is a package object - if that is there, mark it for update,             if possible             else use **kwargs to match the package needing update             if nothing is specified at all then attempt to update everything                          returns the list of txmbr of the items it marked for update"""                  # check for args - if no po nor kwargs, do them all         # if po, do it, ignore all else         # if no po do kwargs         # uninstalled pkgs called for update get returned with errors in a list, maybe?
          tx_return = []         if not po and not kwargs: # update everything (the easy case)             self.verbose_logger.log(logginglevels.DEBUG_2, _('Updating Everything'))             updates = self.up.getUpdatesTuples()             if self.conf.obsoletes:                 obsoletes = self.up.getObsoletesTuples(newest=1)             else:                 obsoletes = []
              for (obsoleting, installed) in obsoletes:                 obsoleting_pkg = self.getPackageObject(obsoleting)                 installed_pkg =  self.rpmdb.searchPkgTuple(installed)[0]                 txmbr = self.tsInfo.addObsoleting(obsoleting_pkg, installed_pkg)                 self.tsInfo.addObsoleted(installed_pkg, obsoleting_pkg)                 if requiringPo:                     txmbr.setAsDep(requiringPo)                 tx_return.append(txmbr)                              for (new, old) in updates:                 if self.tsInfo.isObsoleted(pkgtup=old):                     self.verbose_logger.log(logginglevels.DEBUG_2, _('Not Updating Package that is already obsoleted: %s.%s %s:%s-%s'),                          old)                 else:                     tx_return.extend(self.update(po=self.getPackageObject(new)))                          return tx_return
          # complications         # the user has given us something - either a package object to be         # added to the transaction as an update or they've given us a pattern          # of some kind                  instpkgs = []         availpkgs = []         if po: # just a po             if po.repoid == 'installed':                 instpkgs.append(po)             else:                 availpkgs.append(po)                                           elif kwargs.has_key('pattern'):             if kwargs['pattern'][0] == '@':                 return self._at_groupinstall(kwargs['pattern'])
              (e, m, u) = self.rpmdb.matchPackageNames([kwargs['pattern']])             instpkgs.extend(e)             instpkgs.extend(m)
              if u:                 depmatches = []                 arg = u[0]                 try:                     depmatches = self.returnInstalledPackagesByDep(arg)                 except yum.Errors.YumBaseError, e:                     self.logger.critical(_('%s') % e)                                  instpkgs.extend(depmatches)
              #  Always look for available packages, it doesn't seem to do any             # harm (apart from some time). And it fixes weird edge cases where             # "update a" (which requires a new b) is different from "update b"             try:                 pats = [kwargs['pattern']]                 m = self.pkgSack.returnNewestByNameArch(patterns=pats)             except Errors.PackageSackError:                 m = []             availpkgs.extend(m)
              if not availpkgs and not instpkgs:                 self.logger.critical(_('No Match for argument: %s') % arg)                  else: # we have kwargs, sort them out.             nevra_dict = self._nevra_kwarg_parse(kwargs)
              instpkgs = self.rpmdb.searchNevra(name=nevra_dict['name'],                          epoch=nevra_dict['epoch'], arch=nevra_dict['arch'],                          ver=nevra_dict['version'], rel=nevra_dict['release'])
              if not instpkgs:                 availpkgs = self.pkgSack.searchNevra(name=nevra_dict['name'],                             epoch=nevra_dict['epoch'], arch=nevra_dict['arch'],                             ver=nevra_dict['version'], rel=nevra_dict['release'])                 if len(availpkgs) > 1:                     availpkgs = self._compare_providers(availpkgs, requiringPo)                     availpkgs = map(lambda x: x[0], availpkgs)
                  # for any thing specified         # get the list of available pkgs matching it (or take the po)         # get the list of installed pkgs matching it (or take the po)         # go through each list and look for:            # things obsoleting it if it is an installed pkg            # things it updates if it is an available pkg            # things updating it if it is an installed pkg            # in that order            # all along checking to make sure we:             # don't update something that's already been obsoleted             # don't update something that's already been updated                      # if there are more than one package that matches an update from         # a pattern/kwarg then:             # if it is a valid update and we'                  # TODO: we should search the updates and obsoletes list and         # mark the package being updated or obsoleted away appropriately         # and the package relationship in the tsInfo         
          # check for obsoletes first         if self.conf.obsoletes:             for installed_pkg in instpkgs:                 obs_tups = self.up.obsoleted_dict.get(installed_pkg.pkgtup, [])                 # This is done so we don't have to returnObsoletes(newest=True)                 # It's a minor UI problem for RHEL, but might as well dtrt.                 obs_pkgs = [self.getPackageObject(tup) for tup in obs_tups]                 for obsoleting_pkg in packagesNewestByNameArch(obs_pkgs):                     tx_return.extend(self.install(po=obsoleting_pkg))             for available_pkg in availpkgs:                 for obsoleted in self.up.obsoleting_dict.get(available_pkg.pkgtup, []):                     obsoleted_pkg = self.getInstalledPackageObject(obsoleted)                     txmbr = self.tsInfo.addObsoleting(available_pkg, obsoleted_pkg)                     if requiringPo:                         txmbr.setAsDep(requiringPo)                     tx_return.append(txmbr)                     if self.tsInfo.isObsoleted(obsoleted):                         self.verbose_logger.log(logginglevels.DEBUG_2, _('Package is already obsoleted: %s.%s %s:%s-%s'), obsoleted)                     else:                         txmbr = self.tsInfo.addObsoleted(obsoleted_pkg, available_pkg)                         tx_return.append(txmbr)
          for installed_pkg in instpkgs:             for updating in self.up.updatesdict.get(installed_pkg.pkgtup, []):                 po = self.getPackageObject(updating)                 if self.tsInfo.isObsoleted(installed_pkg.pkgtup):                     self.verbose_logger.log(logginglevels.DEBUG_2, _('Not Updating Package that is already obsoleted: %s.%s %s:%s-%s'),                                              installed_pkg.pkgtup)                                                                # at this point we are going to mark the pkg to be installed, make sure                 # it doesn't obsolete anything. If it does, mark that in the tsInfo, too                 elif po.pkgtup in self.up.getObsoletesList(name=po.name):                     for obsoletee in self._find_obsoletees(po):                         txmbr = self.tsInfo.addUpdate(po, installed_pkg)                         if requiringPo:                             txmbr.setAsDep(requiringPo)                         self.tsInfo.addObsoleting(po, obsoletee)                         self.tsInfo.addObsoleted(obsoletee, po)                         tx_return.append(txmbr)                 else:                     txmbr = self.tsInfo.addUpdate(po, installed_pkg)                     if requiringPo:                         txmbr.setAsDep(requiringPo)                     tx_return.append(txmbr)                                  for available_pkg in availpkgs:             for updated in self.up.updating_dict.get(available_pkg.pkgtup, []):                 if self.tsInfo.isObsoleted(updated):                     self.verbose_logger.log(logginglevels.DEBUG_2, _('Not Updating Package that is already obsoleted: %s.%s %s:%s-%s'),                                              updated)                 elif self._newer_update_in_trans(updated, available_pkg):                     self.verbose_logger.log(logginglevels.DEBUG_2, _('Not Updating Package that is already updated: %s.%s %s:%s-%s'),                                              updated)                                  else:                     updated_pkg =  self.rpmdb.searchPkgTuple(updated)[0]                     txmbr = self.tsInfo.addUpdate(available_pkg, updated_pkg)                     if requiringPo:                         txmbr.setAsDep(requiringPo)                     tx_return.append(txmbr)                                  # check to see if the pkg we want to install is not _quite_ the newest             # one but still technically an update over what is installed.             #FIXME - potentially do the comparables thing from what used to             #        be in cli.installPkgs() to see what we should be comparing             #        it to of what is installed. in the meantime name.arch is             #        most likely correct             pot_updated = self.rpmdb.searchNevra(name=available_pkg.name, arch=available_pkg.arch)             if pot_updated and self.allowedMultipleInstalls(available_pkg):                 # only compare against the newest of what's installed for kernel                 pot_updated = sorted(pot_updated)[-1:]
              for ipkg in pot_updated:                 if self.tsInfo.isObsoleted(ipkg.pkgtup):                     self.verbose_logger.log(logginglevels.DEBUG_2, _('Not Updating Package that is already obsoleted: %s.%s %s:%s-%s'),                                              ipkg.pkgtup)                 elif self._newer_update_in_trans(ipkg.pkgtup, available_pkg):                     self.verbose_logger.log(logginglevels.DEBUG_2, _('Not Updating Package that is already updated: %s.%s %s:%s-%s'),                                              ipkg.pkgtup)                 elif ipkg.verLT(available_pkg):                     txmbr = self.tsInfo.addUpdate(available_pkg, ipkg)                     if requiringPo:                         txmbr.setAsDep(requiringPo)                     tx_return.append(txmbr)                                  #else:                     #magically make allowdowngrade work here                     # yum --allow-downgrade update something-specific here                     # could work but we will need to be careful with it                     # maybe a downgrade command is necessary
          return tx_return              def remove(self, po=None, **kwargs):         """try to find and mark for remove the specified package(s) -             if po is specified then that package object (if it is installed)              will be marked for removal.             if no po then look at kwargs, if neither then raise an exception"""
          if not po and not kwargs:             raise Errors.RemoveError, 'Nothing specified to remove'                  tx_return = []         pkgs = []                           if po:             pkgs = [po]           else:             if kwargs.has_key('pattern'):                 if kwargs['pattern'][0] == '@':                     return self._at_groupremove(kwargs['pattern'])
                  (e,m,u) = self.rpmdb.matchPackageNames([kwargs['pattern']])                 pkgs.extend(e)                 pkgs.extend(m)                 if u:                     depmatches = []                     arg = u[0]                     try:                         depmatches = self.returnInstalledPackagesByDep(arg)                     except yum.Errors.YumBaseError, e:                         self.logger.critical(_('%s') % e)                                          if not depmatches:                         self.logger.critical(_('No Match for argument: %s') % arg)                     else:                         pkgs.extend(depmatches)                              else:                     nevra_dict = self._nevra_kwarg_parse(kwargs)
                  pkgs = self.rpmdb.searchNevra(name=nevra_dict['name'],                              epoch=nevra_dict['epoch'], arch=nevra_dict['arch'],                              ver=nevra_dict['version'], rel=nevra_dict['release'])
                  if len(pkgs) == 0:                     if not kwargs.get('silence_warnings', False):                         self.logger.warning(_("No package matched to remove"))
          for po in pkgs:             txmbr = self.tsInfo.addErase(po)             tx_return.append(txmbr)                  return tx_return
      def installLocal(self, pkg, po=None, updateonly=False):         """         handles installs/updates of rpms provided on the filesystem in a         local dir (ie: not from a repo)
          Return the added transaction members.
          @param pkg: a path to an rpm file on disk.         @param po: A YumLocalPackage         @param updateonly: Whether or not true installs are valid.         """
          # read in the package into a YumLocalPackage Object         # append it to self.localPackages         # check if it can be installed or updated based on nevra versus rpmdb         # don't import the repos until we absolutely need them for depsolving
          tx_return = []         installpkgs = []         updatepkgs = []         donothingpkgs = []
          if not po:             try:                 po = YumLocalPackage(ts=self.rpmdb.readOnlyTS(), filename=pkg)             except Errors.MiscError:                 self.logger.critical(_('Cannot open file: %s. Skipping.'), pkg)                 return tx_return             self.verbose_logger.log(logginglevels.INFO_2,                 _('Examining %s: %s'), po.localpath, po)
          # if by any chance we're a noncompat arch rpm - bail and throw out an error         # FIXME -our archlist should be stored somewhere so we don't have to         # do this: but it's not a config file sort of thing         # FIXME: Should add noarch, yum localinstall works ...         # just rm this method?         if po.arch not in rpmUtils.arch.getArchList():             self.logger.critical(_('Cannot add package %s to transaction. Not a compatible architecture: %s'), pkg, po.arch)             return tx_return                  # everything installed that matches the name         installedByKey = self.rpmdb.searchNevra(name=po.name)         # go through each package         if len(installedByKey) == 0: # nothing installed by that name             if updateonly:                 self.logger.warning(_('Package %s not installed, cannot update it. Run yum install to install it instead.'), po.name)                 return tx_return             else:                 installpkgs.append(po)
          for installed_pkg in installedByKey:             if po.verGT(installed_pkg): # we're newer - this is an update, pass to them                 if installed_pkg.name in self.conf.exactarchlist:                     if po.arch == installed_pkg.arch:                         updatepkgs.append((po, installed_pkg))                     else:                         donothingpkgs.append(po)                 else:                     updatepkgs.append((po, installed_pkg))             elif po.verEQ(installed_pkg):                 if (po.arch != installed_pkg.arch and                     (rpmUtils.arch.isMultiLibArch(po.arch) or                      rpmUtils.arch.isMultiLibArch(installed_pkg.arch))):                     installpkgs.append(po)                 else:                     donothingpkgs.append(po)             elif self.allowedMultipleInstalls(po):                 installpkgs.append(po)             else:                 donothingpkgs.append(po)
          # handle excludes for a localinstall         toexc = []         if len(self.conf.exclude) > 0:             exactmatch, matched, unmatched = \                    parsePackages(installpkgs + map(lambda x: x[0], updatepkgs),                                  self.conf.exclude, casematch=1)             toexc = exactmatch + matched
          if po in toexc:             self.verbose_logger.debug(_('Excluding %s'), po)             return tx_return
          for po in installpkgs:             self.verbose_logger.log(logginglevels.INFO_2,                 _('Marking %s to be installed'), po.localpath)             self.localPackages.append(po)             tx_return.extend(self.install(po=po))
          for (po, oldpo) in updatepkgs:             self.verbose_logger.log(logginglevels.INFO_2,                 _('Marking %s as an update to %s'), po.localpath, oldpo)             self.localPackages.append(po)             txmbr = self.tsInfo.addUpdate(po, oldpo)             tx_return.append(txmbr)
          for po in donothingpkgs:             self.verbose_logger.log(logginglevels.INFO_2,                 _('%s: does not update installed package.'), po.localpath)
          return tx_return
      def reinstallLocal(self, pkg, po=None):         """         handles reinstall of rpms provided on the filesystem in a         local dir (ie: not from a repo)
          Return the added transaction members.
          @param pkg: a path to an rpm file on disk.         @param po: A YumLocalPackage         """
          if not po:             try:                 po = YumLocalPackage(ts=self.rpmdb.readOnlyTS(), filename=pkg)             except Errors.MiscError:                 self.logger.critical(_('Cannot open file: %s. Skipping.'), pkg)                 return []             self.verbose_logger.log(logginglevels.INFO_2,                 _('Examining %s: %s'), po.localpath, po)
          if po.arch not in rpmUtils.arch.getArchList():             self.logger.critical(_('Cannot add package %s to transaction. Not a compatible architecture: %s'), pkg, po.arch)             return []
          # handle excludes for a local reinstall         toexc = []         if len(self.conf.exclude) > 0:             exactmatch, matched, unmatched = \                    parsePackages([po], self.conf.exclude, casematch=1)             toexc = exactmatch + matched
          if po in toexc:             self.verbose_logger.debug(_('Excluding %s'), po)             return []
          return self.reinstall(po=po)
      def reinstall(self, po=None, **kwargs):         """Setup the problem filters to allow a reinstall to work, then            pass everything off to install"""                     self._add_prob_flags(rpm.RPMPROB_FILTER_REPLACEPKG,                              rpm.RPMPROB_FILTER_REPLACENEWFILES,                              rpm.RPMPROB_FILTER_REPLACEOLDFILES)
          tx_mbrs = []         if po: # The po, is the "available" po ... we want the installed po             tx_mbrs.extend(self.remove(pkgtup=po.pkgtup))         else:             tx_mbrs.extend(self.remove(**kwargs))         if not tx_mbrs:             raise Errors.ReinstallRemoveError, _("Problem in reinstall: no package matched to remove")         templen = len(tx_mbrs)         # this is a reinstall, so if we can't reinstall exactly what we uninstalled         # then we really shouldn't go on         new_members = []         failed = []         for item in tx_mbrs[:]:             #FIXME future - if things in the rpm transaction handling get             # a bit finer-grained, then we should allow reinstalls of kernels             # for now, banned and dropped.             if self.allowedMultipleInstalls(item.po):                 self.tsInfo.remove(item.pkgtup)                 tx_mbrs.remove(item)                 msg = _("Package %s is allowed multiple installs, skipping") % item.po                 self.verbose_logger.log(logginglevels.INFO_2, msg)                 continue                          #  Make sure obsoletes processing is off, so we can reinstall()             # pkgs that are obsolete.             old_conf_obs = self.conf.obsoletes             self.conf.obsoletes = False             if isinstance(po, YumLocalPackage):                 members = self.install(po=po)             else:                 members = self.install(name=item.name, arch=item.arch,                                        ver=item.version, release=item.release,                                        epoch=item.epoch)             self.conf.obsoletes = old_conf_obs             if len(members) == 0:                 self.tsInfo.remove(item.pkgtup)                 tx_mbrs.remove(item)                 failed.append(str(item.po))                 continue             new_members.extend(members)
          if failed and not tx_mbrs:             raise Errors.ReinstallInstallError, _("Problem in reinstall: no package %s matched to install") % ", ".join(failed)         tx_mbrs.extend(new_members)         return tx_mbrs              def downgradeLocal(self, pkg, po=None):         """         handles downgrades of rpms provided on the filesystem in a         local dir (ie: not from a repo)
          Return the added transaction members.
          @param pkg: a path to an rpm file on disk.         @param po: A YumLocalPackage         """
          if not po:             try:                 po = YumLocalPackage(ts=self.rpmdb.readOnlyTS(), filename=pkg)             except Errors.MiscError:                 self.logger.critical(_('Cannot open file: %s. Skipping.'), pkg)                 return []             self.verbose_logger.log(logginglevels.INFO_2,                 _('Examining %s: %s'), po.localpath, po)
          if po.arch not in rpmUtils.arch.getArchList():             self.logger.critical(_('Cannot add package %s to transaction. Not a compatible architecture: %s'), pkg, po.arch)             return []
          # handle excludes for a local downgrade         toexc = []         if len(self.conf.exclude) > 0:             exactmatch, matched, unmatched = \                    parsePackages([po], self.conf.exclude, casematch=1)             toexc = exactmatch + matched
          if po in toexc:             self.verbose_logger.debug(_('Excluding %s'), po)             return []
          return self.downgrade(po=po)
      def downgrade(self, po=None, **kwargs):         """ Try to downgrade a package. Works like:             % yum shell <<EOL             remove  abcd             install abcd-<old-version>             run             EOL """
          if not po and not kwargs:             raise Errors.DowngradeError, 'Nothing specified to remove'
          doing_group_pkgs = False         if po:             apkgs = [po]         elif 'pattern' in kwargs:             if kwargs['pattern'][0] == '@':                 apkgs = self._at_groupdowngrade(kwargs['pattern'])                 doing_group_pkgs = True # Don't warn. about some things             else:                 apkgs = self.pkgSack.returnPackages(patterns=[kwargs['pattern']],                                                    ignore_case=False)                 if not apkgs:                     arg = kwargs['pattern']                     self.verbose_logger.debug(_('Checking for virtual provide or file-provide for %s'),                          arg)
                      try:                         apkgs = self.returnPackagesByDep(arg)                     except yum.Errors.YumBaseError, e:                         self.logger.critical(_('No Match for argument: %s') % arg)
          else:             nevra_dict = self._nevra_kwarg_parse(kwargs)             apkgs = self.pkgSack.searchNevra(name=nevra_dict['name'],                                               epoch=nevra_dict['epoch'],                                              arch=nevra_dict['arch'],                                               ver=nevra_dict['version'],                                              rel=nevra_dict['release'])         if not apkgs:             # Do we still want to return errors here?             # We don't in the cases below, so I didn't here...             if 'pattern' in kwargs:                 pkgs = self.rpmdb.returnPackages(patterns=[kwargs['pattern']],                                                  ignore_case=False)             if 'name' in kwargs:                 pkgs = self.rpmdb.searchNevra(name=kwargs['name'])             if pkgs:                 return []             raise Errors.DowngradeError, _('No package(s) available to downgrade')
          warned_nas = set()         # Skip kernel etc.         tapkgs = []         for pkg in apkgs:             if self.allowedMultipleInstalls(pkg):                 if (pkg.name, pkg.arch) not in warned_nas:                     msg = _("Package %s is allowed multiple installs, skipping") % pkg                     self.verbose_logger.log(logginglevels.INFO_2, msg)                 warned_nas.add((pkg.name, pkg.arch))                 continue             tapkgs.append(pkg)         apkgs = tapkgs
          # Find installed versions of "to downgrade pkgs"         apkg_names = set()         for pkg in apkgs:             apkg_names.add(pkg.name)         ipkgs = self.rpmdb.searchNames(list(apkg_names))
          latest_installed_na = {}         latest_installed_n  = {}         for pkg in ipkgs:             latest_installed_n[pkg.name] = pkg             latest_installed_na[(pkg.name, pkg.arch)] = pkg
          #  Find "latest downgrade", ie. latest available pkg before         # installed version.         downgrade_apkgs = {}         for pkg in sorted(apkgs):             na  = (pkg.name, pkg.arch)
              # Here we allow downgrades from .i386 => .noarch, or .i586 => .i386             # but not .i386 => .x86_64 (similar to update).             key = na             latest_installed = latest_installed_na             if pkg.name in latest_installed_n and na not in latest_installed_na:                 if not canCoinstall(pkg.arch,latest_installed_n[pkg.name].arch):                     key = pkg.name                     latest_installed = latest_installed_n
              if key not in latest_installed:                 if na not in warned_nas and not doing_group_pkgs:                     msg = _('No Match for available package: %s') % pkg                     self.logger.critical(msg)                 warned_nas.add(na)                 continue             if pkg.verGE(latest_installed[key]):                 if na not in warned_nas:                     msg = _('Only Upgrade available on package: %s') % pkg                     self.logger.critical(msg)                 warned_nas.add(na)                 continue             warned_nas.add(na)             if (na in downgrade_apkgs and                 pkg.verLE(downgrade_apkgs[na])):                 continue # Skip older than "latest downgrade"             downgrade_apkgs[na] = pkg
          tx_return = []         for po in ipkgs:             na = (po.name, po.arch)             if na not in downgrade_apkgs:                 continue             txmbrs = self.tsInfo.addDowngrade(downgrade_apkgs[na], po)             if not txmbrs: # Fail?                 continue             self._add_prob_flags(rpm.RPMPROB_FILTER_OLDPACKAGE)             tx_return.extend(txmbrs)
          return tx_return              def _nevra_kwarg_parse(self, kwargs):                      returndict = {}                  if 'pkgtup' in kwargs:             (n, a, e, v, r) = kwargs['pkgtup']             returndict['name'] = n             returndict['epoch'] = e             returndict['arch'] = a             returndict['version'] = v             returndict['release'] = r             return returndict
          returndict['name'] = kwargs.get('name')         returndict['epoch'] = kwargs.get('epoch')         returndict['arch'] = kwargs.get('arch')         # get them as ver, version and rel, release - if someone         # specifies one of each then that's kinda silly.         returndict['version'] = kwargs.get('version')         if returndict['version'] is None:             returndict['version'] = kwargs.get('ver')
          returndict['release'] = kwargs.get('release')         if returndict['release'] is None:             returndict['release'] = kwargs.get('rel')
          return returndict
      def _retrievePublicKey(self, keyurl, repo=None):         """         Retrieve a key file         @param keyurl: url to the key to retrieve         Returns a list of dicts with all the keyinfo         """         key_installed = False
          self.logger.info(_('Retrieving GPG key from %s') % keyurl)
          # Go get the GPG key from the given URL         try:             url = misc.to_utf8(keyurl)             if repo is None:                 rawkey = urlgrabber.urlread(url, limit=9999)             else:                 #  If we have a repo. use the proxy etc. configuration for it.                 # In theory we have a global proxy config. too, but meh...                 # external callers should just update.                 ug = URLGrabber(bandwidth = repo.bandwidth,                                 retry = repo.retries,                                 throttle = repo.throttle,                                 progress_obj = repo.callback,                                 proxies=repo.proxy_dict)                 ug.opts.user_agent = default_grabber.opts.user_agent                 rawkey = ug.urlread(url, text=repo.id + "/gpgkey")
          except urlgrabber.grabber.URLGrabError, e:             raise Errors.YumBaseError(_('GPG key retrieval failed: ') +                                       to_unicode(str(e)))         # Parse the key         keys_info = misc.getgpgkeyinfo(rawkey, multiple=True)         keys = []         for keyinfo in keys_info:             thiskey = {}             for info in ('keyid', 'timestamp', 'userid',                           'fingerprint', 'raw_key'):                 if not keyinfo.has_key(info):                     raise Errors.YumBaseError, \                       _('GPG key parsing failed: key does not have value %s') + info                 thiskey[info] = keyinfo[info]             thiskey['hexkeyid'] = misc.keyIdToRPMVer(keyinfo['keyid']).upper()             keys.append(thiskey)                  return keys
      def getKeyForPackage(self, po, askcb = None, fullaskcb = None):         """         Retrieve a key for a package. If needed, prompt for if the key should         be imported using askcb.                  @param po: Package object to retrieve the key of.         @param askcb: Callback function to use for asking for verification.                       Takes arguments of the po, the userid for the key, and                       the keyid.         @param fullaskcb: Callback function to use for asking for verification                           of a key. Differs from askcb in that it gets passed                           a dictionary so that we can expand the values passed.         """         repo = self.repos.getRepo(po.repoid)         keyurls = repo.gpgkey         key_installed = False
          ts = self.rpmdb.readOnlyTS()
          for keyurl in keyurls:             keys = self._retrievePublicKey(keyurl, repo)
              for info in keys:                 # Check if key is already installed                 if misc.keyInstalled(ts, info['keyid'], info['timestamp']) >= 0:                     self.logger.info(_('GPG key at %s (0x%s) is already installed') % (                         keyurl, info['hexkeyid']))                     continue
                  # Try installing/updating GPG key                 self.logger.critical(_('Importing GPG key 0x%s "%s" from %s') %                                      (info['hexkeyid'],                                        to_unicode(info['userid']),                                       keyurl.replace("file://","")))                 rc = False                 if self.conf.assumeyes:                     rc = True                 elif fullaskcb:                     rc = fullaskcb({"po": po, "userid": info['userid'],                                     "hexkeyid": info['hexkeyid'],                                      "keyurl": keyurl,                                     "fingerprint": info['fingerprint'],                                     "timestamp": info['timestamp']})                 elif askcb:                     rc = askcb(po, info['userid'], info['hexkeyid'])
                  if not rc:                     raise Errors.YumBaseError, _("Not installing key")                                  # Import the key                 result = ts.pgpImportPubkey(misc.procgpgkey(info['raw_key']))                 if result != 0:                     raise Errors.YumBaseError, \                           _('Key import failed (code %d)') % result                 self.logger.info(_('Key imported successfully'))                 key_installed = True
                  if not key_installed:                     raise Errors.YumBaseError, \                           _('The GPG keys listed for the "%s" repository are ' \                           'already installed but they are not correct for this ' \                           'package.\n' \                           'Check that the correct key URLs are configured for ' \                           'this repository.') % (repo.name)
          # Check if the newly installed keys helped         result, errmsg = self.sigCheckPkg(po)         if result != 0:             self.logger.info(_("Import of key(s) didn't help, wrong key(s)?"))             raise Errors.YumBaseError, errmsg          def getKeyForRepo(self, repo, callback=None):         """         Retrieve a key for a repository If needed, prompt for if the key should         be imported using callback                  @param repo: Repository object to retrieve the key of.         @param callback: Callback function to use for asking for verification                           of a key. Takes a dictionary of key info.         """         keyurls = repo.gpgkey         key_installed = False         for keyurl in keyurls:             keys = self._retrievePublicKey(keyurl, repo)             for info in keys:                 # Check if key is already installed                 if info['keyid'] in misc.return_keyids_from_pubring(repo.gpgdir):                     self.logger.info(_('GPG key at %s (0x%s) is already imported') % (                         keyurl, info['hexkeyid']))                     continue
                  # Try installing/updating GPG key                 self.logger.critical(_('Importing GPG key 0x%s "%s" from %s') %                                      (info['hexkeyid'],                                       to_unicode(info['userid']),                                      keyurl.replace("file://","")))                 rc = False                 if self.conf.assumeyes:                     rc = True                 elif callback:                     rc = callback({"repo": repo, "userid": info['userid'],                                     "hexkeyid": info['hexkeyid'], "keyurl": keyurl,                                     "fingerprint": info['fingerprint'],                                     "timestamp": info['timestamp']})
 
                  if not rc:                     raise Errors.YumBaseError, _("Not installing key for repo %s") % repo                                  # Import the key                 result = misc.import_key_to_pubring(info['raw_key'], info['hexkeyid'], gpgdir=repo.gpgdir)                 if not result:                     raise Errors.YumBaseError, _('Key import failed')                 self.logger.info(_('Key imported successfully'))                 key_installed = True
                  if not key_installed:                     raise Errors.YumBaseError, \                           _('The GPG keys listed for the "%s" repository are ' \                           'already installed but they are not correct for this ' \                           'package.\n' \                           'Check that the correct key URLs are configured for ' \                           'this repository.') % (repo.name)
 
      def _limit_installonly_pkgs(self):         if self.conf.installonly_limit < 1 :             return                       toremove = []         #  We "probably" want to use either self.ts or self.rpmdb.ts if either         # is available. However each ts takes a ref. on signals generally, and         # SIGINT specifically, so we _must_ have got rid of all of the used tses         # before we try downloading. This is called from buildTransaction()         # so self.rpmdb.ts should be valid.         ts = self.rpmdb.readOnlyTS()         (cur_kernel_v, cur_kernel_r) = misc.get_running_kernel_version_release(ts)         for instpkg in self.conf.installonlypkgs:             for m in self.tsInfo.getMembers():                 if (m.name == instpkg or instpkg in m.po.provides_names) \                        and m.ts_state in ('i', 'u'):                     installed = self.rpmdb.searchNevra(name=m.name)                     if len(installed) >= self.conf.installonly_limit - 1: # since we're adding one                         numleft = len(installed) - self.conf.installonly_limit + 1                         installed.sort(comparePoEVR)                         for po in installed:                             if (po.version, po.release) == (cur_kernel_v, cur_kernel_r):                                  # don't remove running                                 continue                             if numleft == 0:                                 break                             toremove.append(po)                             numleft -= 1                                  map(lambda x: self.tsInfo.addErase(x), toremove)
      def processTransaction(self, callback=None,rpmTestDisplay=None, rpmDisplay=None):         '''         Process the current Transaction         - Download Packages         - Check GPG Signatures.         - Run Test RPM Transaction         - Run RPM Transaction                  callback.event method is called at start/end of each process.                  @param callback: callback object (must have an event method)         @param rpmTestDisplay: Name of display class to use in RPM Test Transaction          @param rpmDisplay: Name of display class to use in RPM Transaction          '''                  if not callback:             callback = callbacks.ProcessTransNoOutputCallback()                  # Download Packages         callback.event(callbacks.PT_DOWNLOAD)         pkgs = self._downloadPackages(callback)         # Check Package Signatures         if pkgs != None:             callback.event(callbacks.PT_GPGCHECK)             self._checkSignatures(pkgs,callback)         # Run Test Transaction         callback.event(callbacks.PT_TEST_TRANS)         self._doTestTransaction(callback,display=rpmTestDisplay)         # Run Transaction         callback.event(callbacks.PT_TRANSACTION)         self._doTransaction(callback,display=rpmDisplay)          def _downloadPackages(self,callback):         ''' Download the need packages in the Transaction '''         # This can be overloaded by a subclass.             dlpkgs = map(lambda x: x.po, filter(lambda txmbr:                                             txmbr.ts_state in ("i", "u"),                                             self.tsInfo.getMembers()))         # Check if there is something to do         if len(dlpkgs) == 0:             return None         # make callback with packages to download                                             callback.event(callbacks.PT_DOWNLOAD_PKGS,dlpkgs)         try:             probs = self.downloadPkgs(dlpkgs)
          except IndexError:             raise Errors.YumBaseError, [_("Unable to find a suitable mirror.")]         if len(probs) > 0:             errstr = [_("Errors were encountered while downloading packages.")]             for key in probs:                 errors = misc.unique(probs[key])                 for error in errors:                     errstr.append("%s: %s" % (key, error))
              raise Errors.YumDownloadError, errstr         return dlpkgs
      def _checkSignatures(self,pkgs,callback):         ''' The the signatures of the downloaded packages '''         # This can be overloaded by a subclass.             for po in pkgs:             result, errmsg = self.sigCheckPkg(po)             if result == 0:                 # Verified ok, or verify not req'd                 continue                         elif result == 1:                 self.getKeyForPackage(po, self._askForGPGKeyImport)             else:                 raise Errors.YumGPGCheckError, errmsg
          return 0              def _askForGPGKeyImport(self, po, userid, hexkeyid):         '''          Ask for GPGKeyImport          This need to be overloaded in a subclass to make GPG Key import work         '''         return False          def _doTestTransaction(self,callback,display=None):         ''' Do the RPM test transaction '''         # This can be overloaded by a subclass.             if self.conf.rpm_check_debug:             self.verbose_logger.log(logginglevels.INFO_2,                   _('Running rpm_check_debug'))             msgs = self._run_rpm_check_debug()             if msgs:                 retmsgs = [_('ERROR with rpm_check_debug vs depsolve:')]                 retmsgs.extend(msgs)                  retmsgs.append(_('Please report this error at %s')                                               % self.conf.bugtracker_url)                 raise Errors.YumRPMCheckError,retmsgs                  tsConf = {}         for feature in ['diskspacecheck']: # more to come, I'm sure             tsConf[feature] = getattr( self.conf, feature )         #         testcb = RPMTransaction(self, test=True)         # overwrite the default display class         if display:             testcb.display = display         # clean out the ts b/c we have to give it new paths to the rpms          del self.ts            self.initActionTs()         # save our dsCallback out         dscb = self.dsCallback         self.dsCallback = None # dumb, dumb dumb dumb!         self.populateTs( keepold=0 ) # sigh         tserrors = self.ts.test( testcb, conf=tsConf )         del testcb            if len( tserrors ) > 0:             errstring =  _('Test Transaction Errors: ')             for descr in tserrors:                 errstring += '  %s\n' % descr              raise Errors.YumTestTransactionError, errstring
          del self.ts         # put back our depcheck callback         self.dsCallback = dscb
 
      def _doTransaction(self,callback,display=None):         ''' do the RPM Transaction '''         # This can be overloaded by a subclass.             self.initActionTs() # make a new, blank ts to populate         self.populateTs( keepold=0 ) # populate the ts         self.ts.check() # required for ordering         self.ts.order() # order         cb = RPMTransaction(self,display=SimpleCliCallBack)         # overwrite the default display class         if display:             cb.display = display         self.runTransaction( cb=cb )
      def _run_rpm_check_debug(self):         results = []         # save our dsCallback out         dscb = self.dsCallback         self.dsCallback = None # dumb, dumb dumb dumb!         self.populateTs(test=1)         self.ts.check()         for prob in self.ts.problems():             results.append(prob)
          self.dsCallback = dscb         return results
      def add_enable_repo(self, repoid, baseurls=[], mirrorlist=None, **kwargs):         """add and enable a repo with just a baseurl/mirrorlist and repoid            requires repoid and at least one of baseurl and mirrorlist            additional optional kwargs are:            variable_convert=bool (defaults to true)            and any other attribute settable to the normal repo setup            ex: metadata_expire, enable_groups, gpgcheck, cachedir, etc            returns the repo object it added"""         # out of place fixme - maybe we should make this the default repo addition         # routine and use it from getReposFromConfigFile(), etc.         newrepo = yumRepo.YumRepository(repoid)         newrepo.name = repoid         newrepo.basecachedir = self.conf.cachedir         var_convert = True         if kwargs.has_key('variable_convert') and not kwargs['variable_convert']:             var_convert = False                  if baseurls:             replaced = []             if var_convert:                 for baseurl in baseurls:                     if baseurl:                         replaced.append(varReplace(baseurl, self.conf.yumvar))             else:                 replaced = baseurls             newrepo.baseurl = replaced
          if mirrorlist:             if var_convert:                 mirrorlist = varReplace(mirrorlist, self.conf.yumvar)             newrepo.mirrorlist = mirrorlist
          # setup the repo         newrepo.setup(cache=self.conf.cache)
          # some reasonable defaults, (imo)         newrepo.enablegroups = True         newrepo.metadata_expire = 0         newrepo.gpgcheck = self.conf.gpgcheck         newrepo.repo_gpgcheck = self.conf.repo_gpgcheck         newrepo.basecachedir = self.conf.cachedir
          for key in kwargs.keys():             if not hasattr(newrepo, key): continue # skip the ones which aren't vars             setattr(newrepo, key, kwargs[key])                  # add the new repo         self.repos.add(newrepo)         # enable the main repo           self.repos.enableRepo(newrepo.id)         return newrepo
  
  |