Remove tabs after spaces in C comments
authorBruce Momjian <[email protected]>
Tue, 6 May 2014 15:26:24 +0000 (11:26 -0400)
committerBruce Momjian <[email protected]>
Tue, 6 May 2014 15:26:24 +0000 (11:26 -0400)
This was not changed in HEAD, but will be done later as part of a
pgindent run.  Future pgindent runs will also do this.

Report by Tom Lane

Backpatch through all supported branches, but not HEAD

561 files changed:
contrib/btree_gist/btree_interval.c
contrib/cube/cube.c
contrib/dblink/dblink.c
contrib/earthdistance/earthdistance.c
contrib/intarray/_int_gist.c
contrib/ltree/ltree_op.c
contrib/oid2name/oid2name.c
contrib/pg_stat_statements/pg_stat_statements.c
contrib/pgcrypto/crypt-des.c
contrib/pgcrypto/crypt-gensalt.c
contrib/pgcrypto/fortuna.c
contrib/pgcrypto/fortuna.h
contrib/pgcrypto/imath.c
contrib/pgcrypto/imath.h
contrib/pgcrypto/internal-sha2.c
contrib/pgcrypto/internal.c
contrib/pgcrypto/mbuf.c
contrib/pgcrypto/mbuf.h
contrib/pgcrypto/md5.c
contrib/pgcrypto/md5.h
contrib/pgcrypto/openssl.c
contrib/pgcrypto/pgcrypto.c
contrib/pgcrypto/pgcrypto.h
contrib/pgcrypto/pgp-armor.c
contrib/pgcrypto/pgp-cfb.c
contrib/pgcrypto/pgp-compress.c
contrib/pgcrypto/pgp-decrypt.c
contrib/pgcrypto/pgp-encrypt.c
contrib/pgcrypto/pgp-info.c
contrib/pgcrypto/pgp-mpi-internal.c
contrib/pgcrypto/pgp-mpi-openssl.c
contrib/pgcrypto/pgp-mpi.c
contrib/pgcrypto/pgp-pgsql.c
contrib/pgcrypto/pgp-pubdec.c
contrib/pgcrypto/pgp-pubenc.c
contrib/pgcrypto/pgp-pubkey.c
contrib/pgcrypto/pgp-s2k.c
contrib/pgcrypto/pgp.c
contrib/pgcrypto/pgp.h
contrib/pgcrypto/px-crypt.c
contrib/pgcrypto/px-crypt.h
contrib/pgcrypto/px-hmac.c
contrib/pgcrypto/px.c
contrib/pgcrypto/px.h
contrib/pgcrypto/random.c
contrib/pgcrypto/rijndael.c
contrib/pgcrypto/rijndael.h
contrib/pgcrypto/sha1.c
contrib/pgcrypto/sha1.h
contrib/pgcrypto/sha2.c
contrib/pgcrypto/sha2.h
contrib/pgstattuple/pgstattuple.c
contrib/seg/seg.c
contrib/spi/moddatetime.c
contrib/spi/timetravel.c
contrib/sslinfo/sslinfo.c
contrib/vacuumlo/vacuumlo.c
src/backend/access/common/heaptuple.c
src/backend/access/common/indextuple.c
src/backend/access/common/printtup.c
src/backend/access/common/reloptions.c
src/backend/access/common/tupconvert.c
src/backend/access/common/tupdesc.c
src/backend/access/gin/ginfast.c
src/backend/access/gin/ginget.c
src/backend/access/gin/ginscan.c
src/backend/access/gist/gist.c
src/backend/access/gist/gistsplit.c
src/backend/access/gist/gistutil.c
src/backend/access/gist/gistvacuum.c
src/backend/access/hash/hash.c
src/backend/access/hash/hashfunc.c
src/backend/access/hash/hashovfl.c
src/backend/access/hash/hashpage.c
src/backend/access/hash/hashsearch.c
src/backend/access/hash/hashsort.c
src/backend/access/hash/hashutil.c
src/backend/access/heap/heapam.c
src/backend/access/heap/hio.c
src/backend/access/heap/pruneheap.c
src/backend/access/heap/rewriteheap.c
src/backend/access/heap/syncscan.c
src/backend/access/heap/tuptoaster.c
src/backend/access/index/genam.c
src/backend/access/index/indexam.c
src/backend/access/nbtree/nbtcompare.c
src/backend/access/nbtree/nbtinsert.c
src/backend/access/nbtree/nbtpage.c
src/backend/access/nbtree/nbtree.c
src/backend/access/nbtree/nbtsearch.c
src/backend/access/nbtree/nbtsort.c
src/backend/access/nbtree/nbtutils.c
src/backend/access/nbtree/nbtxlog.c
src/backend/access/transam/clog.c
src/backend/access/transam/multixact.c
src/backend/access/transam/slru.c
src/backend/access/transam/subtrans.c
src/backend/access/transam/transam.c
src/backend/access/transam/twophase.c
src/backend/access/transam/varsup.c
src/backend/access/transam/xact.c
src/backend/access/transam/xlog.c
src/backend/bootstrap/bootstrap.c
src/backend/catalog/aclchk.c
src/backend/catalog/catalog.c
src/backend/catalog/dependency.c
src/backend/catalog/heap.c
src/backend/catalog/index.c
src/backend/catalog/indexing.c
src/backend/catalog/namespace.c
src/backend/catalog/pg_constraint.c
src/backend/catalog/pg_depend.c
src/backend/catalog/pg_operator.c
src/backend/catalog/pg_proc.c
src/backend/catalog/pg_shdepend.c
src/backend/catalog/pg_type.c
src/backend/catalog/storage.c
src/backend/catalog/toasting.c
src/backend/commands/aggregatecmds.c
src/backend/commands/alter.c
src/backend/commands/analyze.c
src/backend/commands/async.c
src/backend/commands/cluster.c
src/backend/commands/comment.c
src/backend/commands/copy.c
src/backend/commands/dbcommands.c
src/backend/commands/define.c
src/backend/commands/explain.c
src/backend/commands/foreigncmds.c
src/backend/commands/functioncmds.c
src/backend/commands/indexcmds.c
src/backend/commands/opclasscmds.c
src/backend/commands/operatorcmds.c
src/backend/commands/portalcmds.c
src/backend/commands/prepare.c
src/backend/commands/proclang.c
src/backend/commands/schemacmds.c
src/backend/commands/sequence.c
src/backend/commands/tablecmds.c
src/backend/commands/tablespace.c
src/backend/commands/trigger.c
src/backend/commands/typecmds.c
src/backend/commands/user.c
src/backend/commands/vacuum.c
src/backend/commands/vacuumlazy.c
src/backend/commands/variable.c
src/backend/commands/view.c
src/backend/executor/execAmi.c
src/backend/executor/execCurrent.c
src/backend/executor/execJunk.c
src/backend/executor/execMain.c
src/backend/executor/execProcnode.c
src/backend/executor/execQual.c
src/backend/executor/execTuples.c
src/backend/executor/execUtils.c
src/backend/executor/functions.c
src/backend/executor/nodeAgg.c
src/backend/executor/nodeAppend.c
src/backend/executor/nodeBitmapHeapscan.c
src/backend/executor/nodeFunctionscan.c
src/backend/executor/nodeHash.c
src/backend/executor/nodeHashjoin.c
src/backend/executor/nodeIndexscan.c
src/backend/executor/nodeLimit.c
src/backend/executor/nodeMaterial.c
src/backend/executor/nodeMergejoin.c
src/backend/executor/nodeRecursiveunion.c
src/backend/executor/nodeResult.c
src/backend/executor/nodeSetOp.c
src/backend/executor/nodeSubplan.c
src/backend/executor/nodeSubqueryscan.c
src/backend/executor/nodeUnique.c
src/backend/executor/nodeValuesscan.c
src/backend/executor/nodeWindowAgg.c
src/backend/executor/nodeWorktablescan.c
src/backend/executor/spi.c
src/backend/executor/tstoreReceiver.c
src/backend/lib/stringinfo.c
src/backend/libpq/auth.c
src/backend/libpq/be-secure.c
src/backend/libpq/hba.c
src/backend/libpq/md5.c
src/backend/libpq/pqcomm.c
src/backend/libpq/pqformat.c
src/backend/libpq/pqsignal.c
src/backend/main/main.c
src/backend/nodes/bitmapset.c
src/backend/nodes/copyfuncs.c
src/backend/nodes/equalfuncs.c
src/backend/nodes/list.c
src/backend/nodes/nodeFuncs.c
src/backend/nodes/outfuncs.c
src/backend/nodes/read.c
src/backend/nodes/readfuncs.c
src/backend/nodes/tidbitmap.c
src/backend/optimizer/geqo/geqo_eval.c
src/backend/optimizer/path/allpaths.c
src/backend/optimizer/path/clausesel.c
src/backend/optimizer/path/costsize.c
src/backend/optimizer/path/equivclass.c
src/backend/optimizer/path/indxpath.c
src/backend/optimizer/path/joinpath.c
src/backend/optimizer/path/joinrels.c
src/backend/optimizer/path/orindxpath.c
src/backend/optimizer/path/pathkeys.c
src/backend/optimizer/path/tidpath.c
src/backend/optimizer/plan/createplan.c
src/backend/optimizer/plan/initsplan.c
src/backend/optimizer/plan/planagg.c
src/backend/optimizer/plan/planmain.c
src/backend/optimizer/plan/planner.c
src/backend/optimizer/plan/setrefs.c
src/backend/optimizer/plan/subselect.c
src/backend/optimizer/prep/prepjointree.c
src/backend/optimizer/prep/prepqual.c
src/backend/optimizer/prep/preptlist.c
src/backend/optimizer/prep/prepunion.c
src/backend/optimizer/util/clauses.c
src/backend/optimizer/util/joininfo.c
src/backend/optimizer/util/pathnode.c
src/backend/optimizer/util/plancat.c
src/backend/optimizer/util/predtest.c
src/backend/optimizer/util/relnode.c
src/backend/optimizer/util/restrictinfo.c
src/backend/optimizer/util/tlist.c
src/backend/optimizer/util/var.c
src/backend/parser/analyze.c
src/backend/parser/kwlookup.c
src/backend/parser/parse_agg.c
src/backend/parser/parse_clause.c
src/backend/parser/parse_coerce.c
src/backend/parser/parse_cte.c
src/backend/parser/parse_expr.c
src/backend/parser/parse_func.c
src/backend/parser/parse_node.c
src/backend/parser/parse_oper.c
src/backend/parser/parse_relation.c
src/backend/parser/parse_target.c
src/backend/parser/parse_type.c
src/backend/parser/parse_utilcmd.c
src/backend/parser/parser.c
src/backend/port/darwin/system.c
src/backend/port/dynloader/darwin.c
src/backend/port/dynloader/freebsd.c
src/backend/port/dynloader/netbsd.c
src/backend/port/dynloader/openbsd.c
src/backend/port/posix_sema.c
src/backend/port/sysv_sema.c
src/backend/port/sysv_shmem.c
src/backend/port/win32_shmem.c
src/backend/postmaster/autovacuum.c
src/backend/postmaster/bgwriter.c
src/backend/postmaster/pgarch.c
src/backend/postmaster/pgstat.c
src/backend/postmaster/postmaster.c
src/backend/postmaster/syslogger.c
src/backend/postmaster/walwriter.c
src/backend/regex/regc_color.c
src/backend/regex/regc_cvec.c
src/backend/regex/regc_lex.c
src/backend/regex/regc_locale.c
src/backend/regex/regc_nfa.c
src/backend/regex/regcomp.c
src/backend/regex/rege_dfa.c
src/backend/regex/regerror.c
src/backend/regex/regexec.c
src/backend/regex/regfree.c
src/backend/rewrite/rewriteDefine.c
src/backend/rewrite/rewriteHandler.c
src/backend/rewrite/rewriteManip.c
src/backend/storage/buffer/buf_init.c
src/backend/storage/buffer/buf_table.c
src/backend/storage/buffer/bufmgr.c
src/backend/storage/buffer/freelist.c
src/backend/storage/buffer/localbuf.c
src/backend/storage/file/buffile.c
src/backend/storage/file/fd.c
src/backend/storage/freespace/freespace.c
src/backend/storage/freespace/fsmpage.c
src/backend/storage/ipc/ipc.c
src/backend/storage/ipc/ipci.c
src/backend/storage/ipc/pmsignal.c
src/backend/storage/ipc/procarray.c
src/backend/storage/ipc/shmem.c
src/backend/storage/ipc/shmqueue.c
src/backend/storage/ipc/sinval.c
src/backend/storage/ipc/sinvaladt.c
src/backend/storage/large_object/inv_api.c
src/backend/storage/lmgr/deadlock.c
src/backend/storage/lmgr/lmgr.c
src/backend/storage/lmgr/lock.c
src/backend/storage/lmgr/lwlock.c
src/backend/storage/lmgr/proc.c
src/backend/storage/lmgr/s_lock.c
src/backend/storage/lmgr/spin.c
src/backend/storage/page/bufpage.c
src/backend/storage/smgr/md.c
src/backend/tcop/fastpath.c
src/backend/tcop/postgres.c
src/backend/tcop/pquery.c
src/backend/tsearch/ts_locale.c
src/backend/tsearch/ts_typanalyze.c
src/backend/tsearch/ts_utils.c
src/backend/utils/adt/acl.c
src/backend/utils/adt/array_userfuncs.c
src/backend/utils/adt/arrayfuncs.c
src/backend/utils/adt/arrayutils.c
src/backend/utils/adt/char.c
src/backend/utils/adt/date.c
src/backend/utils/adt/datetime.c
src/backend/utils/adt/datum.c
src/backend/utils/adt/domains.c
src/backend/utils/adt/float.c
src/backend/utils/adt/format_type.c
src/backend/utils/adt/formatting.c
src/backend/utils/adt/geo_selfuncs.c
src/backend/utils/adt/inet_net_ntop.c
src/backend/utils/adt/int.c
src/backend/utils/adt/int8.c
src/backend/utils/adt/like.c
src/backend/utils/adt/misc.c
src/backend/utils/adt/nabstime.c
src/backend/utils/adt/network.c
src/backend/utils/adt/numeric.c
src/backend/utils/adt/pg_locale.c
src/backend/utils/adt/pg_lzcompress.c
src/backend/utils/adt/pseudotypes.c
src/backend/utils/adt/regexp.c
src/backend/utils/adt/regproc.c
src/backend/utils/adt/ri_triggers.c
src/backend/utils/adt/rowtypes.c
src/backend/utils/adt/ruleutils.c
src/backend/utils/adt/selfuncs.c
src/backend/utils/adt/timestamp.c
src/backend/utils/adt/varchar.c
src/backend/utils/adt/varlena.c
src/backend/utils/adt/xml.c
src/backend/utils/cache/catcache.c
src/backend/utils/cache/inval.c
src/backend/utils/cache/lsyscache.c
src/backend/utils/cache/plancache.c
src/backend/utils/cache/relcache.c
src/backend/utils/cache/syscache.c
src/backend/utils/cache/typcache.c
src/backend/utils/error/elog.c
src/backend/utils/fmgr/dfmgr.c
src/backend/utils/fmgr/fmgr.c
src/backend/utils/fmgr/funcapi.c
src/backend/utils/hash/dynahash.c
src/backend/utils/init/flatfiles.c
src/backend/utils/init/miscinit.c
src/backend/utils/init/postinit.c
src/backend/utils/mb/conversion_procs/euc_tw_and_big5/big5.c
src/backend/utils/mb/mbutils.c
src/backend/utils/mb/wstrcmp.c
src/backend/utils/mb/wstrncmp.c
src/backend/utils/misc/guc.c
src/backend/utils/misc/ps_status.c
src/backend/utils/misc/tzparser.c
src/backend/utils/mmgr/aset.c
src/backend/utils/mmgr/mcxt.c
src/backend/utils/mmgr/portalmem.c
src/backend/utils/resowner/resowner.c
src/backend/utils/sort/logtape.c
src/backend/utils/sort/tuplesort.c
src/backend/utils/sort/tuplestore.c
src/backend/utils/time/combocid.c
src/backend/utils/time/snapmgr.c
src/backend/utils/time/tqual.c
src/bin/initdb/initdb.c
src/bin/pg_ctl/pg_ctl.c
src/bin/pg_dump/common.c
src/bin/pg_dump/dumputils.c
src/bin/pg_dump/pg_backup_archiver.c
src/bin/pg_dump/pg_backup_db.c
src/bin/pg_dump/pg_dump.c
src/bin/pg_dump/pg_dump.h
src/bin/pg_dump/pg_dump_sort.c
src/bin/pg_dump/pg_dumpall.c
src/bin/pg_resetxlog/pg_resetxlog.c
src/bin/psql/common.c
src/bin/psql/copy.c
src/bin/psql/describe.c
src/bin/psql/input.c
src/bin/psql/large_obj.c
src/bin/psql/mainloop.c
src/bin/psql/mbprint.c
src/bin/psql/print.c
src/bin/psql/settings.h
src/bin/psql/stringutils.c
src/bin/psql/tab-complete.c
src/bin/scripts/common.c
src/include/access/attnum.h
src/include/access/gin.h
src/include/access/hash.h
src/include/access/htup.h
src/include/access/itup.h
src/include/access/nbtree.h
src/include/access/reloptions.h
src/include/access/skey.h
src/include/access/transam.h
src/include/access/tupdesc.h
src/include/access/tupmacs.h
src/include/access/tuptoaster.h
src/include/access/xlog.h
src/include/access/xlog_internal.h
src/include/access/xlogdefs.h
src/include/c.h
src/include/catalog/catversion.h
src/include/catalog/dependency.h
src/include/catalog/namespace.h
src/include/catalog/pg_attrdef.h
src/include/catalog/pg_attribute.h
src/include/catalog/pg_authid.h
src/include/catalog/pg_constraint.h
src/include/catalog/pg_control.h
src/include/catalog/pg_description.h
src/include/catalog/pg_largeobject.h
src/include/catalog/pg_opclass.h
src/include/catalog/pg_proc.h
src/include/catalog/pg_rewrite.h
src/include/catalog/pg_shdepend.h
src/include/catalog/pg_shdescription.h
src/include/catalog/pg_statistic.h
src/include/catalog/pg_trigger.h
src/include/catalog/pg_ts_dict.h
src/include/catalog/pg_ts_template.h
src/include/catalog/pg_type.h
src/include/commands/comment.h
src/include/commands/vacuum.h
src/include/executor/executor.h
src/include/executor/hashjoin.h
src/include/executor/spi_priv.h
src/include/executor/tuptable.h
src/include/fmgr.h
src/include/funcapi.h
src/include/lib/stringinfo.h
src/include/libpq/libpq-be.h
src/include/libpq/pqcomm.h
src/include/mb/pg_wchar.h
src/include/miscadmin.h
src/include/nodes/execnodes.h
src/include/nodes/nodes.h
src/include/nodes/params.h
src/include/nodes/parsenodes.h
src/include/nodes/plannodes.h
src/include/nodes/primnodes.h
src/include/nodes/relation.h
src/include/nodes/tidbitmap.h
src/include/nodes/value.h
src/include/parser/parse_node.h
src/include/pg_config_manual.h
src/include/pgstat.h
src/include/port.h
src/include/port/linux.h
src/include/port/win32.h
src/include/portability/instr_time.h
src/include/postgres.h
src/include/postgres_ext.h
src/include/postmaster/syslogger.h
src/include/regex/regcustom.h
src/include/regex/regex.h
src/include/regex/regguts.h
src/include/snowball/header.h
src/include/storage/block.h
src/include/storage/buf_internals.h
src/include/storage/bufpage.h
src/include/storage/ipc.h
src/include/storage/itemid.h
src/include/storage/itemptr.h
src/include/storage/lock.h
src/include/storage/pg_sema.h
src/include/storage/pg_shmem.h
src/include/storage/pos.h
src/include/storage/proc.h
src/include/storage/relfilenode.h
src/include/storage/s_lock.h
src/include/storage/sinval.h
src/include/storage/sinvaladt.h
src/include/storage/smgr.h
src/include/tcop/dest.h
src/include/tcop/tcopdebug.h
src/include/utils/acl.h
src/include/utils/catcache.h
src/include/utils/datetime.h
src/include/utils/elog.h
src/include/utils/errcodes.h
src/include/utils/guc.h
src/include/utils/hsearch.h
src/include/utils/inet.h
src/include/utils/memutils.h
src/include/utils/palloc.h
src/include/utils/pg_crc.h
src/include/utils/plancache.h
src/include/utils/portal.h
src/include/utils/rel.h
src/include/utils/relcache.h
src/include/utils/resowner.h
src/include/utils/selfuncs.h
src/include/utils/timestamp.h
src/include/utils/tqual.h
src/include/utils/tuplesort.h
src/include/utils/tuplestore.h
src/interfaces/ecpg/include/sqlca.h
src/interfaces/ecpg/pgtypeslib/dt.h
src/interfaces/ecpg/pgtypeslib/interval.c
src/interfaces/ecpg/pgtypeslib/numeric.c
src/interfaces/ecpg/preproc/parser.c
src/interfaces/ecpg/test/expected/compat_informix-test_informix2.c
src/interfaces/ecpg/test/expected/preproc-init.c
src/interfaces/ecpg/test/expected/sql-array.c
src/interfaces/ecpg/test/expected/sql-code100.c
src/interfaces/ecpg/test/expected/sql-copystdout.c
src/interfaces/ecpg/test/expected/sql-define.c
src/interfaces/ecpg/test/expected/sql-dynalloc.c
src/interfaces/ecpg/test/expected/sql-dynalloc2.c
src/interfaces/ecpg/test/expected/sql-dyntest.c
src/interfaces/ecpg/test/expected/sql-indicators.c
src/interfaces/ecpg/test/expected/thread-alloc.c
src/interfaces/ecpg/test/expected/thread-descriptor.c
src/interfaces/ecpg/test/expected/thread-prep.c
src/interfaces/libpq/fe-auth.c
src/interfaces/libpq/fe-connect.c
src/interfaces/libpq/fe-exec.c
src/interfaces/libpq/fe-lobj.c
src/interfaces/libpq/fe-misc.c
src/interfaces/libpq/fe-protocol2.c
src/interfaces/libpq/fe-protocol3.c
src/interfaces/libpq/fe-secure.c
src/interfaces/libpq/libpq-fe.h
src/interfaces/libpq/pqexpbuffer.c
src/interfaces/libpq/pqexpbuffer.h
src/pl/plperl/plperl.c
src/pl/plpgsql/src/pl_comp.c
src/pl/plpgsql/src/pl_exec.c
src/pl/plpgsql/src/pl_funcs.c
src/pl/plpgsql/src/plpgsql.h
src/pl/plpython/plpython.c
src/pl/tcl/pltcl.c
src/port/chklocale.c
src/port/crypt.c
src/port/exec.c
src/port/getaddrinfo.c
src/port/getopt.c
src/port/getopt_long.c
src/port/inet_aton.c
src/port/memcmp.c
src/port/path.c
src/port/qsort.c
src/port/qsort_arg.c
src/port/snprintf.c
src/port/strlcat.c
src/port/strlcpy.c
src/port/strtol.c
src/port/strtoul.c
src/port/thread.c
src/port/unsetenv.c
src/test/regress/pg_regress.c
src/timezone/localtime.c
src/timezone/pgtz.c
src/tutorial/complex.c

index b1368479237f5d8c55855987144890572263c785..04301c2b37f84014864b4212dc7d7e01b44d1b52 100644 (file)
@@ -82,7 +82,7 @@ intr2num(const Interval *i)
 
 /*
  * INTERVALSIZE should be the actual size-on-disk of an Interval, as shown
- * in pg_type. This might be less than sizeof(Interval) if the compiler
+ * in pg_type.  This might be less than sizeof(Interval) if the compiler
  * insists on adding alignment padding at the end of the struct.
  */
 #define INTERVALSIZE 16
index 5fe1109d1bcfaa9d588e9fa1c409f2220f0aeda8..afbfadc1d471fc690e9616bf82000d9ef4c5c288 100644 (file)
@@ -564,7 +564,7 @@ g_cube_picksplit(PG_FUNCTION_ARGS)
    rt_cube_size(datum_r, &size_r);
 
    /*
-    * Now split up the regions between the two seeds.  An important property
+    * Now split up the regions between the two seeds.  An important property
     * of this split algorithm is that the split vector v has the indices of
     * items to be split in order in its left and right vectors.  We exploit
     * this property by doing a merge in the code that actually splits the
@@ -580,7 +580,7 @@ g_cube_picksplit(PG_FUNCTION_ARGS)
    {
        /*
         * If we've already decided where to place this item, just put it on
-        * the right list.  Otherwise, we need to figure out which page needs
+        * the right list.  Otherwise, we need to figure out which page needs
         * the least enlargement in order to store the item.
         */
 
index a48949334d58a1a43029d26387f3a4b891bbc91b..f59ef295c1688a291bde10715d910bc4127bf117 100644 (file)
@@ -636,7 +636,7 @@ dblink_fetch(PG_FUNCTION_ARGS)
                            "the specified FROM clause rowtype")));
 
        /*
-        * fast track when no results.  We could exit earlier, but then we'd
+        * fast track when no results.  We could exit earlier, but then we'd
         * not report error if the result tuple type is wrong.
         */
        if (funcctx->max_calls < 1)
@@ -2257,7 +2257,7 @@ dblink_security_check(PGconn *conn, remoteConn *rconn)
 }
 
 /*
- * For non-superusers, insist that the connstr specify a password. This
+ * For non-superusers, insist that the connstr specify a password.  This
  * prevents a password from being picked up from .pgpass, a service file,
  * the environment, etc.  We don't want the postgres user's passwords
  * to be accessible to non-superusers.
index 4dce1f828ea89b7f21780fa46b93736ff66ba168..8aca5d708b3df0f672187b2fe15dbc3cc00e22f6 100644 (file)
@@ -91,7 +91,7 @@ geo_distance_internal(Point *pt1, Point *pt2)
  *  distance between the points in miles on earth's surface
  *
  * If float8 is passed-by-value, the oldstyle version-0 calling convention
- * is unportable, so we use version-1. However, if it's passed-by-reference,
+ * is unportable, so we use version-1.  However, if it's passed-by-reference,
  * continue to use oldstyle.  This is just because we'd like earthdistance
  * to serve as a canary for any unintentional breakage of version-0 functions
  * with float8 results.
index 29e08eda664cc19248ec46577aab573cbe9c8a74..cbca511759b608c587da911c3a070aedd6f9b297 100644 (file)
@@ -487,7 +487,7 @@ g_int_picksplit(PG_FUNCTION_ARGS)
    qsort((void *) costvector, maxoff, sizeof(SPLITCOST), comparecost);
 
    /*
-    * Now split up the regions between the two seeds.  An important property
+    * Now split up the regions between the two seeds.  An important property
     * of this split algorithm is that the split vector v has the indices of
     * items to be split in order in its left and right vectors.  We exploit
     * this property by doing a merge in the code that actually splits the
@@ -505,7 +505,7 @@ g_int_picksplit(PG_FUNCTION_ARGS)
 
        /*
         * If we've already decided where to place this item, just put it on
-        * the right list.  Otherwise, we need to figure out which page needs
+        * the right list.  Otherwise, we need to figure out which page needs
         * the least enlargement in order to store the item.
         */
 
index 2e6d5367d8953beabc525b7d1f77bcd1bc82f187..8f898d07c1dc0649c68ec777f8e985cd0a4b33ce 100644 (file)
@@ -612,7 +612,7 @@ ltreeparentsel(PG_FUNCTION_ARGS)
        /*
         * If the histogram is large enough, see what fraction of it the
         * constant is "<@" to, and assume that's representative of the
-        * non-MCV population.  Otherwise use the default selectivity for the
+        * non-MCV population.  Otherwise use the default selectivity for the
         * non-MCV population.
         */
        selec = histogram_selectivity(&vardata, &contproc,
index 9d896b84f5d9f6bb10ac0cc09f271d63687da24e..0d66ada91f5c169a6684940b2d7811510cedfd4d 100644 (file)
@@ -430,7 +430,7 @@ sql_exec(PGconn *conn, const char *todo, bool quiet)
 }
 
 /*
- * Dump all databases. There are no system objects to worry about.
+ * Dump all databases.  There are no system objects to worry about.
  */
 void
 sql_exec_dumpalldbs(PGconn *conn, struct options * opts)
index 85960700ac50804c531b77251d9f7c488d1410d8..8caf12e76c661f04944c99b2c759bb7ae408f410 100644 (file)
@@ -791,7 +791,7 @@ pgss_memsize(void)
  * caller must hold an exclusive lock on pgss->lock
  *
  * Note: despite needing exclusive lock, it's not an error for the target
- * entry to already exist. This is because pgss_store releases and
+ * entry to already exist.  This is because pgss_store releases and
  * reacquires lock after failing to find a match; so someone else could
  * have made the entry while we waited to get exclusive lock.
  */
index 0337bfcd4baff121840c5f73fa33a0e776a9b3b5..beb8702ba8d600197d7887a97b63e4899929ae39 100644 (file)
@@ -29,7 +29,7 @@
  * THIS SOFTWARE IS PROVIDED BY THE AUTHOR AND CONTRIBUTORS ``AS IS'' AND
  * ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE
  * IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR PURPOSE
- * ARE DISCLAIMED. IN NO EVENT SHALL THE AUTHOR OR CONTRIBUTORS BE LIABLE
+ * ARE DISCLAIMED.  IN NO EVENT SHALL THE AUTHOR OR CONTRIBUTORS BE LIABLE
  * FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL, EXEMPLARY, OR CONSEQUENTIAL
  * DAMAGES (INCLUDING, BUT NOT LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS
  * OR SERVICES; LOSS OF USE, DATA, OR PROFITS; OR BUSINESS INTERRUPTION)
index b2ec3da8280e606de145393f23cffb794fe57233..9db9163e71508702cdbfbcc6d059c0dc6024cca3 100644 (file)
@@ -9,7 +9,7 @@
  * entirely in crypt_blowfish.c.
  *
  * Put bcrypt generator also here as crypt-blowfish.c
- * may not be compiled always.       -- marko
+ * may not be compiled always.        -- marko
  */
 
 #include "postgres.h"
index 91d461c96fba3cd6c43a50b18f5aacabbcb55f8b..3f4cdcdc65bd2dad2aae02885e80b4fd0dc98d7d 100644 (file)
@@ -17,7 +17,7 @@
  * THIS SOFTWARE IS PROVIDED BY THE AUTHOR AND CONTRIBUTORS ``AS IS'' AND
  * ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE
  * IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR PURPOSE
- * ARE DISCLAIMED. IN NO EVENT SHALL THE AUTHOR OR CONTRIBUTORS BE LIABLE
+ * ARE DISCLAIMED.  IN NO EVENT SHALL THE AUTHOR OR CONTRIBUTORS BE LIABLE
  * FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL, EXEMPLARY, OR CONSEQUENTIAL
  * DAMAGES (INCLUDING, BUT NOT LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS
  * OR SERVICES; LOSS OF USE, DATA, OR PROFITS; OR BUSINESS INTERRUPTION)
@@ -53,7 +53,7 @@
 
 /*
  * There is some confusion about whether and how to carry forward
- * the state of the pools. Seems like original Fortuna does not
+ * the state of the pools.  Seems like original Fortuna does not
  * do it, resetting hash after each request.  I guess expecting
  * feeding to happen more often that requesting.   This is absolutely
  * unsuitable for pgcrypto, as nothing asynchronous happens here.
@@ -77,7 +77,7 @@
  * How many pools.
  *
  * Original Fortuna uses 32 pools, that means 32'th pool is
- * used not earlier than in 13th year. This is a waste in
+ * used not earlier than in 13th year.  This is a waste in
  * pgcrypto, as we have very low-frequancy seeding.  Here
  * is preferable to have all entropy usable in reasonable time.
  *
@@ -296,7 +296,7 @@ reseed(FState *st)
 }
 
 /*
- * Pick a random pool. This uses key bytes as random source.
+ * Pick a random pool.  This uses key bytes as random source.
  */
 static unsigned
 get_rand_pool(FState *st)
index b4d7064decf53c1cc03224f74cbac713fc2d0e44..9b578a8621d5f0499fc490781ccc60fb035aee62 100644 (file)
@@ -17,7 +17,7 @@
  * THIS SOFTWARE IS PROVIDED BY THE AUTHOR AND CONTRIBUTORS ``AS IS'' AND
  * ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE
  * IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR PURPOSE
- * ARE DISCLAIMED. IN NO EVENT SHALL THE AUTHOR OR CONTRIBUTORS BE LIABLE
+ * ARE DISCLAIMED.  IN NO EVENT SHALL THE AUTHOR OR CONTRIBUTORS BE LIABLE
  * FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL, EXEMPLARY, OR CONSEQUENTIAL
  * DAMAGES (INCLUDING, BUT NOT LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS
  * OR SERVICES; LOSS OF USE, DATA, OR PROFITS; OR BUSINESS INTERRUPTION)
index 35dc652d43c8769e9154c8a2c8f87cfc98d0d3be..4fbfc9bd2e19edee6648b93112974fa988c5bd16 100644 (file)
@@ -21,7 +21,7 @@
   THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND,
   EXPRESS OR IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF
   MERCHANTABILITY, FITNESS FOR A PARTICULAR PURPOSE AND
-  NONINFRINGEMENT. IN NO EVENT SHALL THE AUTHORS OR COPYRIGHT HOLDERS
+  NONINFRINGEMENT.  IN NO EVENT SHALL THE AUTHORS OR COPYRIGHT HOLDERS
   BE LIABLE FOR ANY CLAIM, DAMAGES OR OTHER LIABILITY, WHETHER IN AN
   ACTION OF CONTRACT, TORT OR OTHERWISE, ARISING FROM, OUT OF OR IN
   CONNECTION WITH THE SOFTWARE OR THE USE OR OTHER DEALINGS IN THE
@@ -211,7 +211,7 @@ static int  s_vcmp(mp_int a, int v);
 static mp_digit s_uadd(mp_digit *da, mp_digit *db, mp_digit *dc,
       mp_size size_a, mp_size size_b);
 
-/* Unsigned magnitude subtraction. Assumes dc is big enough. */
+/* Unsigned magnitude subtraction.  Assumes dc is big enough. */
 static void s_usub(mp_digit *da, mp_digit *db, mp_digit *dc,
       mp_size size_a, mp_size size_b);
 
@@ -2275,7 +2275,7 @@ mp_error_string(mp_result res)
 /* }}} */
 
 /*------------------------------------------------------------------------*/
-/* Private functions for internal use. These make assumptions.           */
+/* Private functions for internal use.  These make assumptions.           */
 
 /* {{{ s_alloc(num) */
 
index 09d0e3e818b03659b522b41e5f9d2469beac31ec..00cc799816b25d9494364eab45be1b26a82ea691 100644 (file)
@@ -20,7 +20,7 @@
   THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND,
   EXPRESS OR IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF
   MERCHANTABILITY, FITNESS FOR A PARTICULAR PURPOSE AND
-  NONINFRINGEMENT. IN NO EVENT SHALL THE AUTHORS OR COPYRIGHT HOLDERS
+  NONINFRINGEMENT.  IN NO EVENT SHALL THE AUTHORS OR COPYRIGHT HOLDERS
   BE LIABLE FOR ANY CLAIM, DAMAGES OR OTHER LIABILITY, WHETHER IN AN
   ACTION OF CONTRACT, TORT OR OTHERWISE, ARISING FROM, OUT OF OR IN
   CONNECTION WITH THE SOFTWARE OR THE USE OR OTHER DEALINGS IN THE
index acbb50930b4b47fe819f16c72401bbf9e5aa9260..5e45582a8817f8c6fdf1d88e662220bd8138edd0 100644 (file)
@@ -17,7 +17,7 @@
  * THIS SOFTWARE IS PROVIDED BY THE AUTHOR AND CONTRIBUTORS ``AS IS'' AND
  * ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE
  * IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR PURPOSE
- * ARE DISCLAIMED. IN NO EVENT SHALL THE AUTHOR OR CONTRIBUTORS BE LIABLE
+ * ARE DISCLAIMED.  IN NO EVENT SHALL THE AUTHOR OR CONTRIBUTORS BE LIABLE
  * FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL, EXEMPLARY, OR CONSEQUENTIAL
  * DAMAGES (INCLUDING, BUT NOT LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS
  * OR SERVICES; LOSS OF USE, DATA, OR PROFITS; OR BUSINESS INTERRUPTION)
index c17066894ab799d90b7dbff45a29d20d0ef06d4f..91223d3fb8cad2834a8f9487b9c7594bf96cb2d5 100644 (file)
@@ -17,7 +17,7 @@
  * THIS SOFTWARE IS PROVIDED BY THE AUTHOR AND CONTRIBUTORS ``AS IS'' AND
  * ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE
  * IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR PURPOSE
- * ARE DISCLAIMED. IN NO EVENT SHALL THE AUTHOR OR CONTRIBUTORS BE LIABLE
+ * ARE DISCLAIMED.  IN NO EVENT SHALL THE AUTHOR OR CONTRIBUTORS BE LIABLE
  * FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL, EXEMPLARY, OR CONSEQUENTIAL
  * DAMAGES (INCLUDING, BUT NOT LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS
  * OR SERVICES; LOSS OF USE, DATA, OR PROFITS; OR BUSINESS INTERRUPTION)
index 7355e76e9697e1e4502cb725130ab8a4ea0adc37..61313143922bfd7019f522d030a976eb593d60ae 100644 (file)
@@ -17,7 +17,7 @@
  * THIS SOFTWARE IS PROVIDED BY THE AUTHOR AND CONTRIBUTORS ``AS IS'' AND
  * ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE
  * IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR PURPOSE
- * ARE DISCLAIMED. IN NO EVENT SHALL THE AUTHOR OR CONTRIBUTORS BE LIABLE
+ * ARE DISCLAIMED.  IN NO EVENT SHALL THE AUTHOR OR CONTRIBUTORS BE LIABLE
  * FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL, EXEMPLARY, OR CONSEQUENTIAL
  * DAMAGES (INCLUDING, BUT NOT LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS
  * OR SERVICES; LOSS OF USE, DATA, OR PROFITS; OR BUSINESS INTERRUPTION)
index aa2b5596eebbf1e37f1c60022c39f91da0ef88b2..1c2c64220d602c6e3758c665ceb5cdd803687d58 100644 (file)
@@ -17,7 +17,7 @@
  * THIS SOFTWARE IS PROVIDED BY THE AUTHOR AND CONTRIBUTORS ``AS IS'' AND
  * ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE
  * IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR PURPOSE
- * ARE DISCLAIMED. IN NO EVENT SHALL THE AUTHOR OR CONTRIBUTORS BE LIABLE
+ * ARE DISCLAIMED.  IN NO EVENT SHALL THE AUTHOR OR CONTRIBUTORS BE LIABLE
  * FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL, EXEMPLARY, OR CONSEQUENTIAL
  * DAMAGES (INCLUDING, BUT NOT LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS
  * OR SERVICES; LOSS OF USE, DATA, OR PROFITS; OR BUSINESS INTERRUPTION)
index 8083d1f28063ed9a357100b8c88ff0e4d82909e8..9c53ceb02c883a7533362209137bb3ebafd5b595 100644 (file)
@@ -19,7 +19,7 @@
  * THIS SOFTWARE IS PROVIDED BY THE PROJECT AND CONTRIBUTORS ``AS IS'' AND
  * ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE
  * IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR PURPOSE
- * ARE DISCLAIMED. IN NO EVENT SHALL THE PROJECT OR CONTRIBUTORS BE LIABLE
+ * ARE DISCLAIMED.  IN NO EVENT SHALL THE PROJECT OR CONTRIBUTORS BE LIABLE
  * FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL, EXEMPLARY, OR CONSEQUENTIAL
  * DAMAGES (INCLUDING, BUT NOT LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS
  * OR SERVICES; LOSS OF USE, DATA, OR PROFITS; OR BUSINESS INTERRUPTION)
index eb7c620b48ecbf8ac3b3823d7556b747a1bc4662..94e459f4407e4ce46c4419bd351390146b30dd7c 100644 (file)
@@ -20,7 +20,7 @@
  * THIS SOFTWARE IS PROVIDED BY THE PROJECT AND CONTRIBUTORS ``AS IS'' AND
  * ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE
  * IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR PURPOSE
- * ARE DISCLAIMED. IN NO EVENT SHALL THE PROJECT OR CONTRIBUTORS BE LIABLE
+ * ARE DISCLAIMED.  IN NO EVENT SHALL THE PROJECT OR CONTRIBUTORS BE LIABLE
  * FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL, EXEMPLARY, OR CONSEQUENTIAL
  * DAMAGES (INCLUDING, BUT NOT LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS
  * OR SERVICES; LOSS OF USE, DATA, OR PROFITS; OR BUSINESS INTERRUPTION)
index f4338050a780604c810e277c088851a14e1dc685..082ca3cc632a6f7d73b80eda617f350f2de5569e 100644 (file)
@@ -17,7 +17,7 @@
  * THIS SOFTWARE IS PROVIDED BY THE AUTHOR AND CONTRIBUTORS ``AS IS'' AND
  * ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE
  * IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR PURPOSE
- * ARE DISCLAIMED. IN NO EVENT SHALL THE AUTHOR OR CONTRIBUTORS BE LIABLE
+ * ARE DISCLAIMED.  IN NO EVENT SHALL THE AUTHOR OR CONTRIBUTORS BE LIABLE
  * FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL, EXEMPLARY, OR CONSEQUENTIAL
  * DAMAGES (INCLUDING, BUT NOT LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS
  * OR SERVICES; LOSS OF USE, DATA, OR PROFITS; OR BUSINESS INTERRUPTION)
index 796344f8661f85112d8a39c3f81a2b92c7656690..beb7b4335151059b6d1e02e920b5cd0717469c0e 100644 (file)
@@ -17,7 +17,7 @@
  * THIS SOFTWARE IS PROVIDED BY THE AUTHOR AND CONTRIBUTORS ``AS IS'' AND
  * ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE
  * IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR PURPOSE
- * ARE DISCLAIMED. IN NO EVENT SHALL THE AUTHOR OR CONTRIBUTORS BE LIABLE
+ * ARE DISCLAIMED.  IN NO EVENT SHALL THE AUTHOR OR CONTRIBUTORS BE LIABLE
  * FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL, EXEMPLARY, OR CONSEQUENTIAL
  * DAMAGES (INCLUDING, BUT NOT LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS
  * OR SERVICES; LOSS OF USE, DATA, OR PROFITS; OR BUSINESS INTERRUPTION)
index b011b06062e5ce519f2e52e8cecb7fda5015d47b..8f8554665b823986476176025d553740c1177f2d 100644 (file)
@@ -17,7 +17,7 @@
  * THIS SOFTWARE IS PROVIDED BY THE AUTHOR AND CONTRIBUTORS ``AS IS'' AND
  * ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE
  * IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR PURPOSE
- * ARE DISCLAIMED. IN NO EVENT SHALL THE AUTHOR OR CONTRIBUTORS BE LIABLE
+ * ARE DISCLAIMED.  IN NO EVENT SHALL THE AUTHOR OR CONTRIBUTORS BE LIABLE
  * FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL, EXEMPLARY, OR CONSEQUENTIAL
  * DAMAGES (INCLUDING, BUT NOT LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS
  * OR SERVICES; LOSS OF USE, DATA, OR PROFITS; OR BUSINESS INTERRUPTION)
index 7963ccc3295747afd17bd6624d8ff5fd9245443d..95386e37069fb87d03a836ebc9e7f234934300bc 100644 (file)
@@ -17,7 +17,7 @@
  * THIS SOFTWARE IS PROVIDED BY THE AUTHOR AND CONTRIBUTORS ``AS IS'' AND
  * ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE
  * IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR PURPOSE
- * ARE DISCLAIMED. IN NO EVENT SHALL THE AUTHOR OR CONTRIBUTORS BE LIABLE
+ * ARE DISCLAIMED.  IN NO EVENT SHALL THE AUTHOR OR CONTRIBUTORS BE LIABLE
  * FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL, EXEMPLARY, OR CONSEQUENTIAL
  * DAMAGES (INCLUDING, BUT NOT LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS
  * OR SERVICES; LOSS OF USE, DATA, OR PROFITS; OR BUSINESS INTERRUPTION)
index e3418e2d8c342d51a608c47819c5f962bf3f7515..8a9b5d3794186d53968009ee851598edaa67920a 100644 (file)
@@ -17,7 +17,7 @@
  * THIS SOFTWARE IS PROVIDED BY THE AUTHOR AND CONTRIBUTORS ``AS IS'' AND
  * ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE
  * IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR PURPOSE
- * ARE DISCLAIMED. IN NO EVENT SHALL THE AUTHOR OR CONTRIBUTORS BE LIABLE
+ * ARE DISCLAIMED.  IN NO EVENT SHALL THE AUTHOR OR CONTRIBUTORS BE LIABLE
  * FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL, EXEMPLARY, OR CONSEQUENTIAL
  * DAMAGES (INCLUDING, BUT NOT LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS
  * OR SERVICES; LOSS OF USE, DATA, OR PROFITS; OR BUSINESS INTERRUPTION)
@@ -90,7 +90,7 @@ pgp_cfb_free(PGP_CFB *ctx)
 }
 
 /*
- * Data processing for normal CFB. (PGP_PKT_SYMENCRYPTED_DATA_MDC)
+ * Data processing for normal CFB.  (PGP_PKT_SYMENCRYPTED_DATA_MDC)
  */
 static int
 mix_encrypt_normal(PGP_CFB *ctx, const uint8 *data, int len, uint8 *dst)
index 2b7d7e861fc219d39fae8bf5cd484382ff7988b9..73ed58e8f2efff00984e7826a38a73aaabcf5968 100644 (file)
@@ -17,7 +17,7 @@
  * THIS SOFTWARE IS PROVIDED BY THE AUTHOR AND CONTRIBUTORS ``AS IS'' AND
  * ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE
  * IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR PURPOSE
- * ARE DISCLAIMED. IN NO EVENT SHALL THE AUTHOR OR CONTRIBUTORS BE LIABLE
+ * ARE DISCLAIMED.  IN NO EVENT SHALL THE AUTHOR OR CONTRIBUTORS BE LIABLE
  * FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL, EXEMPLARY, OR CONSEQUENTIAL
  * DAMAGES (INCLUDING, BUT NOT LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS
  * OR SERVICES; LOSS OF USE, DATA, OR PROFITS; OR BUSINESS INTERRUPTION)
index e598198dc05ccac35c1dccba4cd8250e76f837bd..a9e1c6dd175676c703d4dc50ed549faad95dd699 100644 (file)
@@ -17,7 +17,7 @@
  * THIS SOFTWARE IS PROVIDED BY THE AUTHOR AND CONTRIBUTORS ``AS IS'' AND
  * ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE
  * IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR PURPOSE
- * ARE DISCLAIMED. IN NO EVENT SHALL THE AUTHOR OR CONTRIBUTORS BE LIABLE
+ * ARE DISCLAIMED.  IN NO EVENT SHALL THE AUTHOR OR CONTRIBUTORS BE LIABLE
  * FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL, EXEMPLARY, OR CONSEQUENTIAL
  * DAMAGES (INCLUDING, BUT NOT LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS
  * OR SERVICES; LOSS OF USE, DATA, OR PROFITS; OR BUSINESS INTERRUPTION)
index 47f524e0909b6fe4e38d55acffed091ffa9653cf..4b6afab2cc5ecb147f2ca199e2fb31c50fcc063b 100644 (file)
@@ -17,7 +17,7 @@
  * THIS SOFTWARE IS PROVIDED BY THE AUTHOR AND CONTRIBUTORS ``AS IS'' AND
  * ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE
  * IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR PURPOSE
- * ARE DISCLAIMED. IN NO EVENT SHALL THE AUTHOR OR CONTRIBUTORS BE LIABLE
+ * ARE DISCLAIMED.  IN NO EVENT SHALL THE AUTHOR OR CONTRIBUTORS BE LIABLE
  * FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL, EXEMPLARY, OR CONSEQUENTIAL
  * DAMAGES (INCLUDING, BUT NOT LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS
  * OR SERVICES; LOSS OF USE, DATA, OR PROFITS; OR BUSINESS INTERRUPTION)
index a51a553236f5b40580f8ccc2d1399c9b3bc9c814..c1c7d90cea0e526c4d8804cdac361cacda4bd5c5 100644 (file)
@@ -17,7 +17,7 @@
  * THIS SOFTWARE IS PROVIDED BY THE AUTHOR AND CONTRIBUTORS ``AS IS'' AND
  * ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE
  * IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR PURPOSE
- * ARE DISCLAIMED. IN NO EVENT SHALL THE AUTHOR OR CONTRIBUTORS BE LIABLE
+ * ARE DISCLAIMED.  IN NO EVENT SHALL THE AUTHOR OR CONTRIBUTORS BE LIABLE
  * FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL, EXEMPLARY, OR CONSEQUENTIAL
  * DAMAGES (INCLUDING, BUT NOT LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS
  * OR SERVICES; LOSS OF USE, DATA, OR PROFITS; OR BUSINESS INTERRUPTION)
index 283946b17d215876d18f071a7cc10c9fba20bd8e..fb65d476043fcf81b14b9aa1723b6908077c8af8 100644 (file)
@@ -17,7 +17,7 @@
  * THIS SOFTWARE IS PROVIDED BY THE AUTHOR AND CONTRIBUTORS ``AS IS'' AND
  * ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE
  * IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR PURPOSE
- * ARE DISCLAIMED. IN NO EVENT SHALL THE AUTHOR OR CONTRIBUTORS BE LIABLE
+ * ARE DISCLAIMED.  IN NO EVENT SHALL THE AUTHOR OR CONTRIBUTORS BE LIABLE
  * FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL, EXEMPLARY, OR CONSEQUENTIAL
  * DAMAGES (INCLUDING, BUT NOT LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS
  * OR SERVICES; LOSS OF USE, DATA, OR PROFITS; OR BUSINESS INTERRUPTION)
@@ -147,7 +147,7 @@ bn_to_mpi(mpz_t *bn)
  *
  * Until I research it further, I just mimic gpg behaviour.
  * It has a special mapping table, for values <= 5120,
- * above that it uses 'arbitrary high number'. Following
+ * above that it uses 'arbitrary high number'.  Following
  * algorihm hovers 10-70 bits above gpg values.  And for
  * larger p, it uses gpg's algorihm.
  *
index f2b25de0900710475408bbd37537e4c5e0417d5f..ad6ee3e43db150d3220f61e8461f2e9765fb50eb 100644 (file)
@@ -17,7 +17,7 @@
  * THIS SOFTWARE IS PROVIDED BY THE AUTHOR AND CONTRIBUTORS ``AS IS'' AND
  * ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE
  * IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR PURPOSE
- * ARE DISCLAIMED. IN NO EVENT SHALL THE AUTHOR OR CONTRIBUTORS BE LIABLE
+ * ARE DISCLAIMED.  IN NO EVENT SHALL THE AUTHOR OR CONTRIBUTORS BE LIABLE
  * FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL, EXEMPLARY, OR CONSEQUENTIAL
  * DAMAGES (INCLUDING, BUT NOT LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS
  * OR SERVICES; LOSS OF USE, DATA, OR PROFITS; OR BUSINESS INTERRUPTION)
@@ -82,7 +82,7 @@ bn_to_mpi(BIGNUM *bn)
  *
  * Until I research it further, I just mimic gpg behaviour.
  * It has a special mapping table, for values <= 5120,
- * above that it uses 'arbitrary high number'. Following
+ * above that it uses 'arbitrary high number'.  Following
  * algorihm hovers 10-70 bits above gpg values.  And for
  * larger p, it uses gpg's algorihm.
  *
index 62b0cea9ee2aad068d8a0d76486b82f9be935bc5..e0910f6ea472efd78c22650880031c64858d88ea 100644 (file)
@@ -17,7 +17,7 @@
  * THIS SOFTWARE IS PROVIDED BY THE AUTHOR AND CONTRIBUTORS ``AS IS'' AND
  * ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE
  * IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR PURPOSE
- * ARE DISCLAIMED. IN NO EVENT SHALL THE AUTHOR OR CONTRIBUTORS BE LIABLE
+ * ARE DISCLAIMED.  IN NO EVENT SHALL THE AUTHOR OR CONTRIBUTORS BE LIABLE
  * FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL, EXEMPLARY, OR CONSEQUENTIAL
  * DAMAGES (INCLUDING, BUT NOT LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS
  * OR SERVICES; LOSS OF USE, DATA, OR PROFITS; OR BUSINESS INTERRUPTION)
index b3f7ca165e66609cba3e5ba53fd092c39574d8e2..af3339efc9f486b58d70d61321d1ee497a32ec8a 100644 (file)
@@ -17,7 +17,7 @@
  * THIS SOFTWARE IS PROVIDED BY THE AUTHOR AND CONTRIBUTORS ``AS IS'' AND
  * ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE
  * IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR PURPOSE
- * ARE DISCLAIMED. IN NO EVENT SHALL THE AUTHOR OR CONTRIBUTORS BE LIABLE
+ * ARE DISCLAIMED.  IN NO EVENT SHALL THE AUTHOR OR CONTRIBUTORS BE LIABLE
  * FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL, EXEMPLARY, OR CONSEQUENTIAL
  * DAMAGES (INCLUDING, BUT NOT LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS
  * OR SERVICES; LOSS OF USE, DATA, OR PROFITS; OR BUSINESS INTERRUPTION)
@@ -93,7 +93,7 @@ add_block_entropy(PX_MD *md, text *data)
 }
 
 /*
- * Mix user data into RNG. It is for user own interests to have
+ * Mix user data into RNG.  It is for user own interests to have
  * RNG state shuffled.
  */
 static void
@@ -310,7 +310,7 @@ set_arg(PGP_Context *ctx, char *key, char *val,
 }
 
 /*
- * Find next word. Handle ',' and '=' as words.  Skip whitespace.
+ * Find next word.  Handle ',' and '=' as words.  Skip whitespace.
  * Put word info into res_p, res_len.
  * Returns ptr to next word.
  */
index cb32708feea2d3bdf98eb70868758414c7c6b926..fd62e3dd32cba1088515b793ee09a7e0cf7a56c1 100644 (file)
@@ -17,7 +17,7 @@
  * THIS SOFTWARE IS PROVIDED BY THE AUTHOR AND CONTRIBUTORS ``AS IS'' AND
  * ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE
  * IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR PURPOSE
- * ARE DISCLAIMED. IN NO EVENT SHALL THE AUTHOR OR CONTRIBUTORS BE LIABLE
+ * ARE DISCLAIMED.  IN NO EVENT SHALL THE AUTHOR OR CONTRIBUTORS BE LIABLE
  * FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL, EXEMPLARY, OR CONSEQUENTIAL
  * DAMAGES (INCLUDING, BUT NOT LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS
  * OR SERVICES; LOSS OF USE, DATA, OR PROFITS; OR BUSINESS INTERRUPTION)
index be9476ac18f36ec2107b53212295363643c6791b..d0775cd6c3fb6b965100a26bb5e3368f44648ddb 100644 (file)
@@ -17,7 +17,7 @@
  * THIS SOFTWARE IS PROVIDED BY THE AUTHOR AND CONTRIBUTORS ``AS IS'' AND
  * ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE
  * IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR PURPOSE
- * ARE DISCLAIMED. IN NO EVENT SHALL THE AUTHOR OR CONTRIBUTORS BE LIABLE
+ * ARE DISCLAIMED.  IN NO EVENT SHALL THE AUTHOR OR CONTRIBUTORS BE LIABLE
  * FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL, EXEMPLARY, OR CONSEQUENTIAL
  * DAMAGES (INCLUDING, BUT NOT LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS
  * OR SERVICES; LOSS OF USE, DATA, OR PROFITS; OR BUSINESS INTERRUPTION)
index 0e2cf09e25856e280bf4e9ac2a611511db032e9a..7a9247322e2e326a09a127bf31d5c918bd1be5cb 100644 (file)
@@ -17,7 +17,7 @@
  * THIS SOFTWARE IS PROVIDED BY THE AUTHOR AND CONTRIBUTORS ``AS IS'' AND
  * ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE
  * IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR PURPOSE
- * ARE DISCLAIMED. IN NO EVENT SHALL THE AUTHOR OR CONTRIBUTORS BE LIABLE
+ * ARE DISCLAIMED.  IN NO EVENT SHALL THE AUTHOR OR CONTRIBUTORS BE LIABLE
  * FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL, EXEMPLARY, OR CONSEQUENTIAL
  * DAMAGES (INCLUDING, BUT NOT LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS
  * OR SERVICES; LOSS OF USE, DATA, OR PROFITS; OR BUSINESS INTERRUPTION)
index 76a5cf891c1e3d06aa52536ed91a13a9730ae215..211fde04f55e242fb682e45e4ee8ebff024c002a 100644 (file)
@@ -17,7 +17,7 @@
  * THIS SOFTWARE IS PROVIDED BY THE AUTHOR AND CONTRIBUTORS ``AS IS'' AND
  * ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE
  * IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR PURPOSE
- * ARE DISCLAIMED. IN NO EVENT SHALL THE AUTHOR OR CONTRIBUTORS BE LIABLE
+ * ARE DISCLAIMED.  IN NO EVENT SHALL THE AUTHOR OR CONTRIBUTORS BE LIABLE
  * FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL, EXEMPLARY, OR CONSEQUENTIAL
  * DAMAGES (INCLUDING, BUT NOT LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS
  * OR SERVICES; LOSS OF USE, DATA, OR PROFITS; OR BUSINESS INTERRUPTION)
index 23f6552dce09802bee4cdc161048b4f9d08b7854..345112bffe5e4c5551344f3408862c3b0a60076b 100644 (file)
@@ -17,7 +17,7 @@
  * THIS SOFTWARE IS PROVIDED BY THE AUTHOR AND CONTRIBUTORS ``AS IS'' AND
  * ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE
  * IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR PURPOSE
- * ARE DISCLAIMED. IN NO EVENT SHALL THE AUTHOR OR CONTRIBUTORS BE LIABLE
+ * ARE DISCLAIMED.  IN NO EVENT SHALL THE AUTHOR OR CONTRIBUTORS BE LIABLE
  * FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL, EXEMPLARY, OR CONSEQUENTIAL
  * DAMAGES (INCLUDING, BUT NOT LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS
  * OR SERVICES; LOSS OF USE, DATA, OR PROFITS; OR BUSINESS INTERRUPTION)
index 7860d830c41497985c49871409154aba71e4c36b..92122de13013a0fe397cd490a8a65df400eb5e0e 100644 (file)
@@ -17,7 +17,7 @@
  * THIS SOFTWARE IS PROVIDED BY THE AUTHOR AND CONTRIBUTORS ``AS IS'' AND
  * ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE
  * IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR PURPOSE
- * ARE DISCLAIMED. IN NO EVENT SHALL THE AUTHOR OR CONTRIBUTORS BE LIABLE
+ * ARE DISCLAIMED.  IN NO EVENT SHALL THE AUTHOR OR CONTRIBUTORS BE LIABLE
  * FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL, EXEMPLARY, OR CONSEQUENTIAL
  * DAMAGES (INCLUDING, BUT NOT LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS
  * OR SERVICES; LOSS OF USE, DATA, OR PROFITS; OR BUSINESS INTERRUPTION)
index 2243279972783a2d92a867f4a9361cc8a72dd08f..21837e86f4c7e1ff058bbbd2d8083e01786d6b7c 100644 (file)
@@ -17,7 +17,7 @@
  * THIS SOFTWARE IS PROVIDED BY THE AUTHOR AND CONTRIBUTORS ``AS IS'' AND
  * ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE
  * IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR PURPOSE
- * ARE DISCLAIMED. IN NO EVENT SHALL THE AUTHOR OR CONTRIBUTORS BE LIABLE
+ * ARE DISCLAIMED.  IN NO EVENT SHALL THE AUTHOR OR CONTRIBUTORS BE LIABLE
  * FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL, EXEMPLARY, OR CONSEQUENTIAL
  * DAMAGES (INCLUDING, BUT NOT LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS
  * OR SERVICES; LOSS OF USE, DATA, OR PROFITS; OR BUSINESS INTERRUPTION)
index c2460cb9f9bc9d17220a2909c4b85285513ae838..32628aa6bbaa2d2c61bb126632ff9f5d9ffeb6e9 100644 (file)
@@ -17,7 +17,7 @@
  * THIS SOFTWARE IS PROVIDED BY THE AUTHOR AND CONTRIBUTORS ``AS IS'' AND
  * ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE
  * IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR PURPOSE
- * ARE DISCLAIMED. IN NO EVENT SHALL THE AUTHOR OR CONTRIBUTORS BE LIABLE
+ * ARE DISCLAIMED.  IN NO EVENT SHALL THE AUTHOR OR CONTRIBUTORS BE LIABLE
  * FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL, EXEMPLARY, OR CONSEQUENTIAL
  * DAMAGES (INCLUDING, BUT NOT LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS
  * OR SERVICES; LOSS OF USE, DATA, OR PROFITS; OR BUSINESS INTERRUPTION)
index 61e5b0ea3da5ee04e6fa4dec18896927b1e2f092..a1a57fcd2ceeffebb7a98317e1edd61cb357824f 100644 (file)
@@ -17,7 +17,7 @@
  * THIS SOFTWARE IS PROVIDED BY THE AUTHOR AND CONTRIBUTORS ``AS IS'' AND
  * ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE
  * IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR PURPOSE
- * ARE DISCLAIMED. IN NO EVENT SHALL THE AUTHOR OR CONTRIBUTORS BE LIABLE
+ * ARE DISCLAIMED.  IN NO EVENT SHALL THE AUTHOR OR CONTRIBUTORS BE LIABLE
  * FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL, EXEMPLARY, OR CONSEQUENTIAL
  * DAMAGES (INCLUDING, BUT NOT LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS
  * OR SERVICES; LOSS OF USE, DATA, OR PROFITS; OR BUSINESS INTERRUPTION)
index 59ec32c505a64ff2093fcb16025995abc2926742..3994fdb14523fc630cdd3f257dec0d7308b0b702 100644 (file)
@@ -17,7 +17,7 @@
  * THIS SOFTWARE IS PROVIDED BY THE AUTHOR AND CONTRIBUTORS ``AS IS'' AND
  * ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE
  * IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR PURPOSE
- * ARE DISCLAIMED. IN NO EVENT SHALL THE AUTHOR OR CONTRIBUTORS BE LIABLE
+ * ARE DISCLAIMED.  IN NO EVENT SHALL THE AUTHOR OR CONTRIBUTORS BE LIABLE
  * FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL, EXEMPLARY, OR CONSEQUENTIAL
  * DAMAGES (INCLUDING, BUT NOT LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS
  * OR SERVICES; LOSS OF USE, DATA, OR PROFITS; OR BUSINESS INTERRUPTION)
index 4137898874b905e94596e946f37d6d9ff514f26a..d4e2456d1bd6912f9f10c3a833bb7b8c856c71c9 100644 (file)
@@ -17,7 +17,7 @@
  * THIS SOFTWARE IS PROVIDED BY THE AUTHOR AND CONTRIBUTORS ``AS IS'' AND
  * ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE
  * IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR PURPOSE
- * ARE DISCLAIMED. IN NO EVENT SHALL THE AUTHOR OR CONTRIBUTORS BE LIABLE
+ * ARE DISCLAIMED.  IN NO EVENT SHALL THE AUTHOR OR CONTRIBUTORS BE LIABLE
  * FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL, EXEMPLARY, OR CONSEQUENTIAL
  * DAMAGES (INCLUDING, BUT NOT LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS
  * OR SERVICES; LOSS OF USE, DATA, OR PROFITS; OR BUSINESS INTERRUPTION)
index b22e029d2c6eb74879e617d6536717470d08b118..e5a2c64693c461a62c68d67d44e44f8b49f657fb 100644 (file)
@@ -17,7 +17,7 @@
  * THIS SOFTWARE IS PROVIDED BY THE AUTHOR AND CONTRIBUTORS ``AS IS'' AND
  * ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE
  * IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR PURPOSE
- * ARE DISCLAIMED. IN NO EVENT SHALL THE AUTHOR OR CONTRIBUTORS BE LIABLE
+ * ARE DISCLAIMED.  IN NO EVENT SHALL THE AUTHOR OR CONTRIBUTORS BE LIABLE
  * FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL, EXEMPLARY, OR CONSEQUENTIAL
  * DAMAGES (INCLUDING, BUT NOT LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS
  * OR SERVICES; LOSS OF USE, DATA, OR PROFITS; OR BUSINESS INTERRUPTION)
index cf9eca91dcb3aeff76f0822c7bd493e35e2e4ae9..eac641dffb87edd2072d6eba73b10e4a1b56f811 100644 (file)
@@ -7,12 +7,12 @@
 /*        RIJNDAEL by Joan Daemen and Vincent Rijmen                   */
 /*                                                                     */
 /* which is a candidate algorithm in the Advanced Encryption Standard  */
-/* programme of the US National Institute of Standards and Technology. */
+/* programme of the US National Institute of Standards and Technology.  */
 /*                                                                     */
 /* Copyright in this implementation is held by Dr B R Gladman but I        */
 /* hereby give permission for its free direct or derivative use subject */
 /* to acknowledgment of its origin and compliance with any conditions  */
-/* that the originators of the algorithm place on its exploitation.        */
+/* that the originators of the algorithm place on its exploitation.     */
 /*                                                                     */
 /* Dr Brian Gladman ([email protected]) 14th January 1999        */
 
@@ -188,7 +188,7 @@ gen_tabs(void)
    /* rijndael specification is in big endian format with  */
    /* bit 0 as the most significant bit. In the remainder  */
    /* of the specification the bits are numbered from the  */
-   /* least significant end of a byte.                     */
+   /* least significant end of a byte.                     */
 
    for (i = 0; i < 256; ++i)
    {
index e4c422917086b5ce389854d9c40f674f55eab534..636332a309b2f910bc90eaf2dcb59aac74344c07 100644 (file)
@@ -8,12 +8,12 @@
 /*        RIJNDAEL by Joan Daemen and Vincent Rijmen                   */
 /*                                                                     */
 /* which is a candidate algorithm in the Advanced Encryption Standard  */
-/* programme of the US National Institute of Standards and Technology. */
+/* programme of the US National Institute of Standards and Technology.  */
 /*                                                                     */
 /* Copyright in this implementation is held by Dr B R Gladman but I        */
 /* hereby give permission for its free direct or derivative use subject */
 /* to acknowledgment of its origin and compliance with any conditions  */
-/* that the originators of the algorithm place on its exploitation.        */
+/* that the originators of the algorithm place on its exploitation.     */
 /*                                                                     */
 /* Dr Brian Gladman ([email protected]) 14th January 1999        */
 
index 45339a1235690ec63153db41fd73b3e269d50692..612fd254d5ada6648b09a72c14c44bc31ca71bf4 100644 (file)
@@ -19,7 +19,7 @@
  * THIS SOFTWARE IS PROVIDED BY THE PROJECT AND CONTRIBUTORS ``AS IS'' AND
  * ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE
  * IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR PURPOSE
- * ARE DISCLAIMED. IN NO EVENT SHALL THE PROJECT OR CONTRIBUTORS BE LIABLE
+ * ARE DISCLAIMED.  IN NO EVENT SHALL THE PROJECT OR CONTRIBUTORS BE LIABLE
  * FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL, EXEMPLARY, OR CONSEQUENTIAL
  * DAMAGES (INCLUDING, BUT NOT LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS
  * OR SERVICES; LOSS OF USE, DATA, OR PROFITS; OR BUSINESS INTERRUPTION)
index ae830fccad5ce55db0882510ab1ddbe945e4c94b..4377ef8e0c79185166a04d5dcfd3ce6e44c555b8 100644 (file)
@@ -20,7 +20,7 @@
  * THIS SOFTWARE IS PROVIDED BY THE PROJECT AND CONTRIBUTORS ``AS IS'' AND
  * ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE
  * IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR PURPOSE
- * ARE DISCLAIMED. IN NO EVENT SHALL THE PROJECT OR CONTRIBUTORS BE LIABLE
+ * ARE DISCLAIMED.  IN NO EVENT SHALL THE PROJECT OR CONTRIBUTORS BE LIABLE
  * FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL, EXEMPLARY, OR CONSEQUENTIAL
  * DAMAGES (INCLUDING, BUT NOT LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS
  * OR SERVICES; LOSS OF USE, DATA, OR PROFITS; OR BUSINESS INTERRUPTION)
index 1938c43ee53922b216fabb4cc8cc5350b8de3f2d..a30bb97111bddc2bb42dac6771f89392f78fe061 100644 (file)
@@ -22,7 +22,7 @@
  * THIS SOFTWARE IS PROVIDED BY THE AUTHOR AND CONTRIBUTOR(S) ``AS IS'' AND
  * ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE
  * IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR PURPOSE
- * ARE DISCLAIMED. IN NO EVENT SHALL THE AUTHOR OR CONTRIBUTOR(S) BE LIABLE
+ * ARE DISCLAIMED.  IN NO EVENT SHALL THE AUTHOR OR CONTRIBUTOR(S) BE LIABLE
  * FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL, EXEMPLARY, OR CONSEQUENTIAL
  * DAMAGES (INCLUDING, BUT NOT LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS
  * OR SERVICES; LOSS OF USE, DATA, OR PROFITS; OR BUSINESS INTERRUPTION)
index 8d593c60e5fa76c801f44dc8e7e8731976ba3bc0..492274320168f45b2dfa2357ad46bc51ac8bd56a 100644 (file)
@@ -23,7 +23,7 @@
  * THIS SOFTWARE IS PROVIDED BY THE AUTHOR AND CONTRIBUTOR(S) ``AS IS'' AND
  * ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE
  * IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR PURPOSE
- * ARE DISCLAIMED. IN NO EVENT SHALL THE AUTHOR OR CONTRIBUTOR(S) BE LIABLE
+ * ARE DISCLAIMED.  IN NO EVENT SHALL THE AUTHOR OR CONTRIBUTOR(S) BE LIABLE
  * FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL, EXEMPLARY, OR CONSEQUENTIAL
  * DAMAGES (INCLUDING, BUT NOT LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS
  * OR SERVICES; LOSS OF USE, DATA, OR PROFITS; OR BUSINESS INTERRUPTION)
index 02b8e083678a5884d0cfae201d2022b3400f764b..0518f87e4d97d59e3c1f93ab011c406bf3a858a2 100644 (file)
@@ -296,7 +296,7 @@ pgstat_heap(Relation rel, FunctionCallInfo fcinfo)
 
        /*
         * To avoid physically reading the table twice, try to do the
-        * free-space scan in parallel with the heap scan.  However,
+        * free-space scan in parallel with the heap scan.  However,
         * heap_getnext may find no tuples on a given page, so we cannot
         * simply examine the pages returned by the heap scan.
         */
index 18215969fad77899fcd03ea1fe00a5824725af7d..e2c7b2cdd8cbe5cbdf40233ac359449b69c51285 100644 (file)
@@ -381,7 +381,7 @@ gseg_picksplit(GistEntryVector *entryvec,
    rt_seg_size(datum_r, &size_r);
 
    /*
-    * Now split up the regions between the two seeds.  An important property
+    * Now split up the regions between the two seeds.  An important property
     * of this split algorithm is that the split vector v has the indices of
     * items to be split in order in its left and right vectors.  We exploit
     * this property by doing a merge in the code that actually splits the
@@ -397,7 +397,7 @@ gseg_picksplit(GistEntryVector *entryvec,
    {
        /*
         * If we've already decided where to place this item, just put it on
-        * the right list.  Otherwise, we need to figure out which page needs
+        * the right list.  Otherwise, we need to figure out which page needs
         * the least enlargement in order to store the item.
         */
 
index 0b4d3ba35195775ad2992e154af7e94c1739d8b5..aba2a5571b0ab63cece12ed22a0c7b0a067d6910 100644 (file)
@@ -89,7 +89,7 @@ moddatetime(PG_FUNCTION_ARGS)
 
    /*
     * This is were we check to see if the field we are supposed to update
-    * even exits.  The above function must return -1 if name not found?
+    * even exits.  The above function must return -1 if name not found?
     */
    if (attnum < 0)
        ereport(ERROR,
index 577767d81ffa0ab6f62ccfcfdb9c8b21e5e2d62a..03291fae9d284a8a36bc666d6b75afc3139e4897 100644 (file)
@@ -47,17 +47,17 @@ static EPlan *find_plan(char *ident, EPlan **eplan, int *nplans);
 
 /*
  * timetravel () --
- *     1.  IF an update affects tuple with stop_date eq INFINITY
+ *     1.  IF an update affects tuple with stop_date eq INFINITY
  *         then form (and return) new tuple with start_date eq current date
  *         and stop_date eq INFINITY [ and update_user eq current user ]
  *         and all other column values as in new tuple, and insert tuple
  *         with old data and stop_date eq current date
  *         ELSE - skip updation of tuple.
- *     2.  IF an delete affects tuple with stop_date eq INFINITY
+ *     2.  IF an delete affects tuple with stop_date eq INFINITY
  *         then insert the same tuple with stop_date eq current date
  *         [ and delete_user eq current user ]
  *         ELSE - skip deletion of tuple.
- *     3.  On INSERT, if start_date is NULL then current date will be
+ *     3.  On INSERT, if start_date is NULL then current date will be
  *         inserted, if stop_date is NULL then INFINITY will be inserted.
  *         [ and insert_user eq current user, update_user and delete_user
  *         eq NULL ]
index a8145653c0c55dee362b1b3b033a5be4ef6e9892..1ae20695336c8f2448856b67a3f6f17ee6ab6c70 100644 (file)
@@ -104,7 +104,7 @@ ssl_client_serial(PG_FUNCTION_ARGS)
  * current database encoding if possible.  Any invalid characters are
  * replaced by question marks.
  *
- * Parameter: str - OpenSSL ASN1_STRING structure. Memory managment
+ * Parameter: str - OpenSSL ASN1_STRING structure.  Memory managment
  * of this structure is responsibility of caller.
  *
  * Returns Datum, which can be directly returned from a C language SQL
index b26b42cf7a908828adcd21b598c454d01a21fd8c..aa1abaf2bea0d1094f92bc5623c4da6b5e28328f 100644 (file)
@@ -241,7 +241,7 @@ vacuumlo(char *database, struct _param * param)
    PQclear(res);
 
    /*
-    * Run the actual deletes in a single transaction.  Note that this would
+    * Run the actual deletes in a single transaction.  Note that this would
     * be a bad idea in pre-7.1 Postgres releases (since rolling back a table
     * delete used to cause problems), but it should be safe now.
     */
index 38f770f92b0fe7f9ba268933ee58051fa926fc8f..6a00326d4ac98b4c70ba6f56779f3720c7335332 100644 (file)
@@ -21,7 +21,7 @@
  * tuptoaster.c.
  *
  * This change will break any code that assumes it needn't detoast values
- * that have been put into a tuple but never sent to disk. Hopefully there
+ * that have been put into a tuple but never sent to disk.  Hopefully there
  * are few such places.
  *
  * Varlenas still have alignment 'i' (or 'd') in pg_type/pg_attribute, since
@@ -427,7 +427,7 @@ nocachegetattr(HeapTuple tuple,
 
        /*
         * Otherwise, check for non-fixed-length attrs up to and including
-        * target.  If there aren't any, it's safe to cheaply initialize the
+        * target.  If there aren't any, it's safe to cheaply initialize the
         * cached offsets for these attrs.
         */
        if (HeapTupleHasVarWidth(tuple))
@@ -494,7 +494,7 @@ nocachegetattr(HeapTuple tuple,
         *
         * Note - This loop is a little tricky.  For each non-null attribute,
         * we have to first account for alignment padding before the attr,
-        * then advance over the attr based on its length.  Nulls have no
+        * then advance over the attr based on its length.  Nulls have no
         * storage and no alignment padding either.  We can use/set
         * attcacheoff until we reach either a null or a var-width attribute.
         */
@@ -590,7 +590,7 @@ heap_getsysattr(HeapTuple tup, int attnum, TupleDesc tupleDesc, bool *isnull)
 
            /*
             * cmin and cmax are now both aliases for the same field, which
-            * can in fact also be a combo command id.  XXX perhaps we should
+            * can in fact also be a combo command id.  XXX perhaps we should
             * return the "real" cmin or cmax if possible, that is if we are
             * inside the originating transaction?
             */
@@ -750,7 +750,7 @@ heap_form_tuple(TupleDesc tupleDescriptor,
    len += data_len;
 
    /*
-    * Allocate and zero the space needed.  Note that the tuple body and
+    * Allocate and zero the space needed.  Note that the tuple body and
     * HeapTupleData management structure are allocated in one chunk.
     */
    tuple = (HeapTuple) palloc0(HEAPTUPLESIZE + len);
index e106e64fd3b0693fa5fb5cd96b41075993863ebe..72c15f9ee32009399940fed555b914db0eceb313 100644 (file)
@@ -71,7 +71,7 @@ index_form_tuple(TupleDesc tupleDescriptor,
 
        /*
         * If value is stored EXTERNAL, must fetch it so we are not depending
-        * on outside storage.  This should be improved someday.
+        * on outside storage.  This should be improved someday.
         */
        if (VARATT_IS_EXTERNAL(DatumGetPointer(values[i])))
        {
@@ -314,7 +314,7 @@ nocache_index_getattr(IndexTuple tup,
 
        /*
         * Otherwise, check for non-fixed-length attrs up to and including
-        * target.  If there aren't any, it's safe to cheaply initialize the
+        * target.  If there aren't any, it's safe to cheaply initialize the
         * cached offsets for these attrs.
         */
        if (IndexTupleHasVarwidths(tup))
@@ -381,7 +381,7 @@ nocache_index_getattr(IndexTuple tup,
         *
         * Note - This loop is a little tricky.  For each non-null attribute,
         * we have to first account for alignment padding before the attr,
-        * then advance over the attr based on its length.  Nulls have no
+        * then advance over the attr based on its length.  Nulls have no
         * storage and no alignment padding either.  We can use/set
         * attcacheoff until we reach either a null or a var-width attribute.
         */
index 13a09dd9b3c695df2014c745f06d965c59d6fe4c..7440d31c7463d8666d94e1807896809035574936 100644 (file)
@@ -166,7 +166,7 @@ printtup_startup(DestReceiver *self, int operation, TupleDesc typeinfo)
  * or some similar function; it does not contain a full set of fields.
  * The targetlist will be NIL when executing a utility function that does
  * not have a plan.  If the targetlist isn't NIL then it is a Query node's
- * targetlist; it is up to us to ignore resjunk columns in it. The formats[]
+ * targetlist; it is up to us to ignore resjunk columns in it.  The formats[]
  * array pointer might be NULL (if we are doing Describe on a prepared stmt);
  * send zeroes for the format codes in that case.
  */
index 5cc66c34342a3ea641d4f2344291dfbbe9b0d7b5..9685259bbc0f3b6b56c9fbf7fdb5002898d6f133 100644 (file)
@@ -432,7 +432,7 @@ add_real_reloption(bits32 kinds, char *name, char *desc, double default_val,
  *     Add a new string reloption
  *
  * "validator" is an optional function pointer that can be used to test the
- * validity of the values. It must elog(ERROR) when the argument string is
+ * validity of the values.  It must elog(ERROR) when the argument string is
  * not acceptable for the variable.  Note that the default value must pass
  * the validation.
  */
@@ -499,7 +499,7 @@ add_string_reloption(bits32 kinds, char *name, char *desc, char *default_val,
  * Note that this is not responsible for determining whether the options
  * are valid, but it does check that namespaces for all the options given are
  * listed in validnsps.  The NULL namespace is always valid and needs not be
- * explicitely listed. Passing a NULL pointer means that only the NULL
+ * explicitely listed.  Passing a NULL pointer means that only the NULL
  * namespace is valid.
  *
  * Both oldOptions and the result are text arrays (or NULL for "default"),
@@ -772,7 +772,7 @@ extractRelOptions(HeapTuple tuple, TupleDesc tupdesc, Oid amoptions)
  * is returned.
  *
  * Note: values of type int, bool and real are allocated as part of the
- * returned array. Values of type string are allocated separately and must
+ * returned array.  Values of type string are allocated separately and must
  * be freed by the caller.
  */
 relopt_value *
index f25cd860f3f6215c1b59ec45f07dc7271cf1f0b6..2806d6a8ff3fb8c48da2d050d65d10de2e552403 100644 (file)
@@ -5,7 +5,7 @@
  *
  * These functions provide conversion between rowtypes that are logically
  * equivalent but might have columns in a different order or different sets
- * of dropped columns. There is some overlap of functionality with the
+ * of dropped columns.  There is some overlap of functionality with the
  * executor's "junkfilter" routines, but these functions work on bare
  * HeapTuples rather than TupleTableSlots.
  *
index 01e8589c312b61cdfd14447ebb79b5b9a97ace76..83c22224d94ee6b174312477c19765dfd17eff00 100644 (file)
@@ -507,7 +507,7 @@ TupleDescInitEntry(TupleDesc desc,
  * Given a relation schema (list of ColumnDef nodes), build a TupleDesc.
  *
  * Note: the default assumption is no OIDs; caller may modify the returned
- * TupleDesc if it wants OIDs. Also, tdtypeid will need to be filled in
+ * TupleDesc if it wants OIDs.  Also, tdtypeid will need to be filled in
  * later on.
  */
 TupleDesc
index 71f6cb3741e0140fb7d9f5915438925c0c5dfa82..0edd88e404ef57806aa4954a5b5184480f3fff78 100644 (file)
@@ -662,7 +662,7 @@ processPendingPage(BuildAccumulator *accum, DatumArray *da,
  *
  * This can be called concurrently by multiple backends, so it must cope.
  * On first glance it looks completely not concurrent-safe and not crash-safe
- * either. The reason it's okay is that multiple insertion of the same entry
+ * either.  The reason it's okay is that multiple insertion of the same entry
  * is detected and treated as a no-op by gininsert.c.  If we crash after
  * posting entries to the main index and before removing them from the
  * pending list, it's okay because when we redo the posting later on, nothing
@@ -715,7 +715,7 @@ ginInsertCleanup(Relation index, GinState *ginstate,
    LockBuffer(metabuffer, GIN_UNLOCK);
 
    /*
-    * Initialize.  All temporary space will be in opCtx
+    * Initialize.  All temporary space will be in opCtx
     */
    opCtx = AllocSetContextCreate(CurrentMemoryContext,
                                  "GIN insert cleanup temporary context",
@@ -809,7 +809,7 @@ ginInsertCleanup(Relation index, GinState *ginstate,
 
            /*
             * While we left the page unlocked, more stuff might have gotten
-            * added to it.  If so, process those entries immediately.  There
+            * added to it.  If so, process those entries immediately.  There
             * shouldn't be very many, so we don't worry about the fact that
             * we're doing this with exclusive lock. Insertion algorithm
             * gurantees that inserted row(s) will not continue on next page.
index 0802d689ef3668c6edcc56d2b9df1090ba305ce7..a468bc0bb513271284c5773a32644e48dc88fa1b 100644 (file)
@@ -1293,10 +1293,10 @@ scanGetItem(IndexScanDesc scan, ItemPointer advancePast,
         * case like
         *
         *      stream 1        stream 2
-        *      ...             ...
+        *      ...             ...
         *      42/6            42/7
         *      50/1            42/0xffff
-        *      ...             ...
+        *      ...             ...
         *
         * We would conclude that 42/6 is not a match and advance stream 1,
         * thus never detecting the match to the lossy pointer in stream 2.
@@ -1368,10 +1368,10 @@ gingetbitmap(PG_FUNCTION_ARGS)
 
    /*
     * First, scan the pending list and collect any matching entries into the
-    * bitmap.  After we scan a pending item, some other backend could post it
+    * bitmap.  After we scan a pending item, some other backend could post it
     * into the main index, and so we might visit it a second time during the
     * main scan.  This is okay because we'll just re-set the same bit in the
-    * bitmap.  (The possibility of duplicate visits is a major reason why GIN
+    * bitmap.  (The possibility of duplicate visits is a major reason why GIN
     * can't support the amgettuple API, however.) Note that it would not do
     * to scan the main index before the pending list, since concurrent
     * cleanup could then make us miss entries entirely.
index f23e96ab2c52429846b855a142a1abcf6c25cf51..0ee5ce9118ce927a3158a6a4ae193a80da8914c7 100644 (file)
@@ -201,7 +201,7 @@ newScanKey(IndexScanDesc scan)
        {
            /*
             * extractQueryFn signals that nothing can match, so we can just
-            * set isVoidRes flag.  No need to examine any more keys.
+            * set isVoidRes flag.  No need to examine any more keys.
             */
            so->isVoidRes = true;
            break;
@@ -210,9 +210,9 @@ newScanKey(IndexScanDesc scan)
        if (entryValues == NULL || nEntryValues == 0)
        {
            /*
-            * extractQueryFn signals that everything matches.  This would
+            * extractQueryFn signals that everything matches.  This would
             * require a full scan, which we can't do, but perhaps there is
-            * another scankey that provides a restriction to use.  So we keep
+            * another scankey that provides a restriction to use.  So we keep
             * going and check only at the end.
             */
            continue;
index 5eadb2a2862f6ec55656e34f58646dcbc03abd18..1c123787b901a4db9bb5a2dadcb5d1771260f1a1 100644 (file)
@@ -191,7 +191,7 @@ gistbuildCallback(Relation index,
    /*
     * Since we already have the index relation locked, we call gistdoinsert
     * directly.  Normal access method calls dispatch through gistinsert,
-    * which locks the relation for write.  This is the right thing to do if
+    * which locks the relation for write.  This is the right thing to do if
     * you're inserting single tups, but not when you're initializing the
     * whole index at once.
     *
index d4dae502f661121152e73246473df9284e635fa5..8c4e14e4d537f5ddca258f97d41970e8a1b22ceb 100644 (file)
@@ -72,7 +72,7 @@ gistunionsubkeyvec(GISTSTATE *giststate, IndexTuple *itvec,
  * Recompute unions of left- and right-side subkeys after a page split,
  * ignoring any tuples that are marked in spl->spl_dontcare[].
  *
- * Note: we always recompute union keys for all index columns. In some cases
+ * Note: we always recompute union keys for all index columns.  In some cases
  * this might represent duplicate work for the leftmost column(s), but it's
  * not safe to assume that "zero penalty to move a tuple" means "the union
  * key doesn't change at all".  Penalty functions aren't 100% accurate.
@@ -161,7 +161,7 @@ findDontCares(Relation r, GISTSTATE *giststate, GISTENTRY *valvec,
 
 /*
  * Remove tuples that are marked don't-cares from the tuple index array a[]
- * of length *len. This is applied separately to the spl_left and spl_right
+ * of length *len.  This is applied separately to the spl_left and spl_right
  * arrays.
  */
 static void
@@ -194,7 +194,7 @@ removeDontCares(OffsetNumber *a, int *len, const bool *dontcare)
 /*
  * Place a single don't-care tuple into either the left or right side of the
  * split, according to which has least penalty for merging the tuple into
- * the previously-computed union keys. We need consider only columns starting
+ * the previously-computed union keys.  We need consider only columns starting
  * at attno.
  */
 static void
@@ -292,7 +292,7 @@ supportSecondarySplit(Relation r, GISTSTATE *giststate, int attno,
 
        /*
         * There is only one previously defined union, so we just choose swap
-        * or not by lowest penalty for that side.  We can only get here if a
+        * or not by lowest penalty for that side.  We can only get here if a
         * secondary split happened to have all NULLs in its column in the
         * tuples that the outer recursion level had assigned to one side.
         * (Note that the null checks in gistSplitByKey don't prevent the
@@ -426,7 +426,7 @@ gistUserPicksplit(Relation r, GistEntryVector *entryvec, int attno, GistSplitVec
    sv->spl_rdatum = v->spl_rattr[attno];
 
    /*
-    * Let the opclass-specific PickSplit method do its thing.  Note that at
+    * Let the opclass-specific PickSplit method do its thing.  Note that at
     * this point we know there are no null keys in the entryvec.
     */
    FunctionCall2(&giststate->picksplitFn[attno],
index 1f35d4ee75754ee45b4a862d9d822a5959ec236d..f224d40d25f60589ae0e25d3726400d32c8abfdb 100644 (file)
@@ -448,7 +448,7 @@ gistchoose(Relation r, Page p, IndexTuple it,   /* it has compressed entry */
            {
                /*
                 * New best penalty for column.  Tentatively select this tuple
-                * as the target, and record the best penalty.  Then reset the
+                * as the target, and record the best penalty.  Then reset the
                 * next column's penalty to "unknown" (and indirectly, the
                 * same for all the ones to its right).  This will force us to
                 * adopt this tuple's penalty values as the best for all the
@@ -464,7 +464,7 @@ gistchoose(Relation r, Page p, IndexTuple it,   /* it has compressed entry */
            {
                /*
                 * The current tuple is exactly as good for this column as the
-                * best tuple seen so far.  The next iteration of this loop
+                * best tuple seen so far.  The next iteration of this loop
                 * will compare the next column.
                 */
            }
@@ -631,7 +631,7 @@ gistcheckpage(Relation rel, Buffer buf)
    /*
     * ReadBuffer verifies that every newly-read page passes
     * PageHeaderIsValid, which means it either contains a reasonably sane
-    * page header or is all-zero.  We have to defend against the all-zero
+    * page header or is all-zero.  We have to defend against the all-zero
     * case, however.
     */
    if (PageIsNew(page))
index 0433b47ae1eb59d72796848c5a0d3b977c5de373..1a451246638adb1e42a931504bd27aa22db79c14 100644 (file)
@@ -528,7 +528,7 @@ gistvacuumcleanup(PG_FUNCTION_ARGS)
        stats->std.estimated_count = info->estimated_count;
 
        /*
-        * XXX the above is wrong if index is partial.  Would it be OK to just
+        * XXX the above is wrong if index is partial.  Would it be OK to just
         * return NULL, or is there work we must do below?
         */
    }
index ead2821f5c87f376b2228f9484e55b2d982b3063..5772531bf69a1eeabf67fd042e661536d539c5dc 100644 (file)
@@ -76,7 +76,7 @@ hashbuild(PG_FUNCTION_ARGS)
     * (assuming their hash codes are pretty random) there will be no locality
     * of access to the index, and if the index is bigger than available RAM
     * then we'll thrash horribly.  To prevent that scenario, we can sort the
-    * tuples by (expected) bucket number.  However, such a sort is useless
+    * tuples by (expected) bucket number.  However, such a sort is useless
     * overhead when the index does fit in RAM.  We choose to sort if the
     * initial index size exceeds NBuffers.
     *
@@ -510,7 +510,7 @@ hashbulkdelete(PG_FUNCTION_ARGS)
    /*
     * Read the metapage to fetch original bucket and tuple counts.  Also, we
     * keep a copy of the last-seen metapage so that we can use its
-    * hashm_spares[] values to compute bucket page addresses.  This is a bit
+    * hashm_spares[] values to compute bucket page addresses.  This is a bit
     * hokey but perfectly safe, since the interesting entries in the spares
     * array cannot change under us; and it beats rereading the metapage for
     * each bucket.
@@ -641,7 +641,7 @@ loop_top:
    {
        /*
         * Otherwise, our count is untrustworthy since we may have
-        * double-scanned tuples in split buckets.  Proceed by dead-reckoning.
+        * double-scanned tuples in split buckets.  Proceed by dead-reckoning.
         * (Note: we still return estimated_count = false, because using this
         * count is better than not updating reltuples at all.)
         */
index 3242e2713eadeb9412bec569ddb981d83e0350cf..66628736a11b9588bc92b3145ff3b5394e4d1dab 100644 (file)
@@ -11,7 +11,7 @@
  *   $PostgreSQL: pgsql/src/backend/access/hash/hashfunc.c,v 1.59 2009/06/11 14:48:53 momjian Exp $
  *
  * NOTES
- *   These functions are stored in pg_amproc.  For each operator class
+ *   These functions are stored in pg_amproc.  For each operator class
  *   defined for hash indexes, they compute the hash value of the argument.
  *
  *   Additional hash functions appear in /utils/adt/ files for various
@@ -163,7 +163,7 @@ hashtext(PG_FUNCTION_ARGS)
    /*
     * Note: this is currently identical in behavior to hashvarlena, but keep
     * it as a separate function in case we someday want to do something
-    * different in non-C locales.  (See also hashbpchar, if so.)
+    * different in non-C locales.  (See also hashbpchar, if so.)
     */
    result = hash_any((unsigned char *) VARDATA_ANY(key),
                      VARSIZE_ANY_EXHDR(key));
@@ -241,7 +241,7 @@ hashvarlena(PG_FUNCTION_ARGS)
  *
  * This allows some parallelism.  Read-after-writes are good at doubling
  * the number of bits affected, so the goal of mixing pulls in the opposite
- * direction from the goal of parallelism. I did what I could.  Rotates
+ * direction from the goal of parallelism.  I did what I could.  Rotates
  * seem to cost as much as shifts on every machine I could lay my hands on,
  * and rotates are much kinder to the top and bottom bits, so I used rotates.
  *----------
@@ -275,7 +275,7 @@ hashvarlena(PG_FUNCTION_ARGS)
  * substantial performance increase since final() does not need to
  * do well in reverse, but is does need to affect all output bits.
  * mix(), on the other hand, does not need to affect all output
- * bits (affecting 32 bits is enough). The original hash function had
+ * bits (affecting 32 bits is enough).  The original hash function had
  * a single mixing operation that had to satisfy both sets of requirements
  * and was slower as a result.
  *----------
@@ -296,7 +296,7 @@ hashvarlena(PG_FUNCTION_ARGS)
  *     k       : the key (the unaligned variable-length array of bytes)
  *     len     : the length of the key, counting by bytes
  *
- * Returns a uint32 value. Every bit of the key affects every bit of
+ * Returns a uint32 value.  Every bit of the key affects every bit of
  * the return value.  Every 1-bit and 2-bit delta achieves avalanche.
  * About 6*len+35 instructions. The best hash table sizes are powers
  * of 2.  There is no need to do mod a prime (mod is sooo slow!).
index 71e31e1cb9e5d5f570e5532114108ba8be1dec31..1fd59942b3a0d62cdcff375e845492447ee5f793 100644 (file)
@@ -81,7 +81,7 @@ blkno_to_bitno(HashMetaPage metap, BlockNumber ovflblkno)
  *
  * Add an overflow page to the bucket whose last page is pointed to by 'buf'.
  *
- * On entry, the caller must hold a pin but no lock on 'buf'.  The pin is
+ * On entry, the caller must hold a pin but no lock on 'buf'.  The pin is
  * dropped before exiting (we assume the caller is not interested in 'buf'
  * anymore).  The returned overflow page will be pinned and write-locked;
  * it is guaranteed to be empty.
@@ -90,12 +90,12 @@ blkno_to_bitno(HashMetaPage metap, BlockNumber ovflblkno)
  * That buffer is returned in the same state.
  *
  * The caller must hold at least share lock on the bucket, to ensure that
- * no one else tries to compact the bucket meanwhile.  This guarantees that
+ * no one else tries to compact the bucket meanwhile.  This guarantees that
  * 'buf' won't stop being part of the bucket while it's unlocked.
  *
  * NB: since this could be executed concurrently by multiple processes,
  * one should not assume that the returned overflow page will be the
- * immediate successor of the originally passed 'buf'. Additional overflow
+ * immediate successor of the originally passed 'buf'.  Additional overflow
  * pages might have been added to the bucket chain in between.
  */
 Buffer
@@ -158,7 +158,7 @@ _hash_addovflpage(Relation rel, Buffer metabuf, Buffer buf)
 /*
  * _hash_getovflpage()
  *
- * Find an available overflow page and return it.  The returned buffer
+ * Find an available overflow page and return it.  The returned buffer
  * is pinned and write-locked, and has had _hash_pageinit() applied,
  * but it is caller's responsibility to fill the special space.
  *
@@ -254,7 +254,7 @@ _hash_getovflpage(Relation rel, Buffer metabuf)
         * We create the new bitmap page with all pages marked "in use".
         * Actually two pages in the new bitmap's range will exist
         * immediately: the bitmap page itself, and the following page which
-        * is the one we return to the caller.  Both of these are correctly
+        * is the one we return to the caller.  Both of these are correctly
         * marked "in use".  Subsequent pages do not exist yet, but it is
         * convenient to pre-mark them as "in use" too.
         */
@@ -285,7 +285,7 @@ _hash_getovflpage(Relation rel, Buffer metabuf)
    metap->hashm_spares[splitnum]++;
 
    /*
-    * Adjust hashm_firstfree to avoid redundant searches.  But don't risk
+    * Adjust hashm_firstfree to avoid redundant searches.  But don't risk
     * changing it if someone moved it while we were searching bitmap pages.
     */
    if (metap->hashm_firstfree == orig_firstfree)
@@ -314,7 +314,7 @@ found:
    blkno = bitno_to_blkno(metap, bit);
 
    /*
-    * Adjust hashm_firstfree to avoid redundant searches.  But don't risk
+    * Adjust hashm_firstfree to avoid redundant searches.  But don't risk
     * changing it if someone moved it while we were searching bitmap pages.
     */
    if (metap->hashm_firstfree == orig_firstfree)
@@ -495,7 +495,7 @@ _hash_freeovflpage(Relation rel, Buffer ovflbuf,
 /*
  * _hash_initbitmap()
  *
- *  Initialize a new bitmap page.  The metapage has a write-lock upon
+ *  Initialize a new bitmap page.  The metapage has a write-lock upon
  *  entering the function, and must be written by caller after return.
  *
  * 'blkno' is the block number of the new bitmap page.
index 600b0128fb3118924fc5428c960ca8e24e15e7b0..ea68a3abd3501df272e1ddbcf7621393bbaa04b8 100644 (file)
@@ -52,7 +52,7 @@ static void _hash_splitbucket(Relation rel, Buffer metabuf,
  * of the locking rules).  However, we can skip taking lmgr locks when the
  * index is local to the current backend (ie, either temp or new in the
  * current transaction).  No one else can see it, so there's no reason to
- * take locks. We still take buffer-level locks, but not lmgr locks.
+ * take locks.  We still take buffer-level locks, but not lmgr locks.
  */
 #define USELOCKING(rel)        (!RELATION_IS_LOCAL(rel))
 
@@ -139,7 +139,7 @@ _hash_getbuf(Relation rel, BlockNumber blkno, int access, int flags)
  *
  *     This must be used only to fetch pages that are known to be before
  *     the index's filesystem EOF, but are to be filled from scratch.
- *     _hash_pageinit() is applied automatically.  Otherwise it has
+ *     _hash_pageinit() is applied automatically.  Otherwise it has
  *     effects similar to _hash_getbuf() with access = HASH_WRITE.
  *
  *     When this routine returns, a write lock is set on the
@@ -347,7 +347,7 @@ _hash_metapinit(Relation rel, double num_tuples)
    /*
     * Determine the target fill factor (in tuples per bucket) for this index.
     * The idea is to make the fill factor correspond to pages about as full
-    * as the user-settable fillfactor parameter says.  We can compute it
+    * as the user-settable fillfactor parameter says.  We can compute it
     * exactly since the index datatype (i.e. uint32 hash key) is fixed-width.
     */
    data_width = sizeof(uint32);
@@ -380,7 +380,7 @@ _hash_metapinit(Relation rel, double num_tuples)
    /*
     * We initialize the metapage, the first N bucket pages, and the first
     * bitmap page in sequence, using _hash_getnewbuf to cause smgrextend()
-    * calls to occur.  This ensures that the smgr level has the right idea of
+    * calls to occur.  This ensures that the smgr level has the right idea of
     * the physical index length.
     */
    metabuf = _hash_getnewbuf(rel, HASH_METAPAGE);
@@ -516,9 +516,9 @@ _hash_expandtable(Relation rel, Buffer metabuf)
     * Note: deadlock should be impossible here. Our own backend could only be
     * holding bucket sharelocks due to stopped indexscans; those will not
     * block other holders of the page-zero lock, who are only interested in
-    * acquiring bucket sharelocks themselves.  Exclusive bucket locks are
+    * acquiring bucket sharelocks themselves.  Exclusive bucket locks are
     * only taken here and in hashbulkdelete, and neither of these operations
-    * needs any additional locks to complete.  (If, due to some flaw in this
+    * needs any additional locks to complete.  (If, due to some flaw in this
     * reasoning, we manage to deadlock anyway, it's okay to error out; the
     * index will be left in a consistent state.)
     */
@@ -560,7 +560,7 @@ _hash_expandtable(Relation rel, Buffer metabuf)
 
    /*
     * Determine which bucket is to be split, and attempt to lock the old
-    * bucket.  If we can't get the lock, give up.
+    * bucket.  If we can't get the lock, give up.
     *
     * The lock protects us against other backends, but not against our own
     * backend.  Must check for active scans separately.
@@ -618,7 +618,7 @@ _hash_expandtable(Relation rel, Buffer metabuf)
    }
 
    /*
-    * Okay to proceed with split.  Update the metapage bucket mapping info.
+    * Okay to proceed with split.  Update the metapage bucket mapping info.
     *
     * Since we are scribbling on the metapage data right in the shared
     * buffer, any failure in this next little bit leaves us with a big
@@ -656,7 +656,7 @@ _hash_expandtable(Relation rel, Buffer metabuf)
     * Copy bucket mapping info now; this saves re-accessing the meta page
     * inside _hash_splitbucket's inner loop.  Note that once we drop the
     * split lock, other splits could begin, so these values might be out of
-    * date before _hash_splitbucket finishes.  That's okay, since all it
+    * date before _hash_splitbucket finishes.  That's okay, since all it
     * needs is to tell which of these two buckets to map hashkeys into.
     */
    maxbucket = metap->hashm_maxbucket;
@@ -897,7 +897,7 @@ _hash_splitbucket(Relation rel,
 
    /*
     * We're at the end of the old bucket chain, so we're done partitioning
-    * the tuples.  Before quitting, call _hash_squeezebucket to ensure the
+    * the tuples.  Before quitting, call _hash_squeezebucket to ensure the
     * tuples remaining in the old bucket (including the overflow pages) are
     * packed as tightly as possible.  The new bucket is already tight.
     */
index 153ac6926c15d65ae89b9629875414136c3d19e6..db46942df4c579791d2ea1000d17ede3f51fca3b 100644 (file)
@@ -251,7 +251,7 @@ _hash_first(IndexScanDesc scan, ScanDirection dir)
  * _hash_step() -- step to the next valid item in a scan in the bucket.
  *
  *     If no valid record exists in the requested direction, return
- *     false.  Else, return true and set the hashso_curpos for the
+ *     false.  Else, return true and set the hashso_curpos for the
  *     scan to the right thing.
  *
  *     'bufP' points to the current buffer, which is pinned and read-locked.
index 00e7dc5f5d554aeb0a2d6ae5ec083c1f66e053c5..dc8ab59d9600d5b285d3f9cd8c4afb9e55535368 100644 (file)
@@ -8,7 +8,7 @@
  * thrashing.  We use tuplesort.c to sort the given index tuples into order.
  *
  * Note: if the number of rows in the table has been underestimated,
- * bucket splits may occur during the index build. In that case we'd
+ * bucket splits may occur during the index build.  In that case we'd
  * be inserting into two or more buckets for each possible masked-off
  * hash code value.  That's no big problem though, since we'll still have
  * plenty of locality of access.
@@ -52,7 +52,7 @@ _h_spoolinit(Relation index, uint32 num_buckets)
    hspool->index = index;
 
    /*
-    * Determine the bitmask for hash code values.  Since there are currently
+    * Determine the bitmask for hash code values.  Since there are currently
     * num_buckets buckets in the index, the appropriate mask can be computed
     * as follows.
     *
index ba1d6fbbf56dedb9f5fff011b783ff1a8eaf77ad..40fd39816751b26ba92c1ece0fee95428905caf8 100644 (file)
@@ -160,7 +160,7 @@ _hash_checkpage(Relation rel, Buffer buf, int flags)
    /*
     * ReadBuffer verifies that every newly-read page passes
     * PageHeaderIsValid, which means it either contains a reasonably sane
-    * page header or is all-zero.  We have to defend against the all-zero
+    * page header or is all-zero.  We have to defend against the all-zero
     * case, however.
     */
    if (PageIsNew(page))
@@ -280,7 +280,7 @@ _hash_form_tuple(Relation index, Datum *values, bool *isnull)
  *
  * Returns the offset of the first index entry having hashkey >= hash_value,
  * or the page's max offset plus one if hash_value is greater than all
- * existing hash keys in the page. This is the appropriate place to start
+ * existing hash keys in the page.  This is the appropriate place to start
  * a search, or to insert a new item.
  */
 OffsetNumber
index 89cf249447a2468758130b20797581760bfed510..9dcbe15658d95ce63bf485fac78f3a1eff919ab0 100644 (file)
@@ -106,7 +106,7 @@ initscan(HeapScanDesc scan, ScanKey key, bool is_rescan)
     * while the scan is in progress will be invisible to my snapshot anyway.
     * (That is not true when using a non-MVCC snapshot.  However, we couldn't
     * guarantee to return tuples added after scan start anyway, since they
-    * might go into pages we already scanned.  To guarantee consistent
+    * might go into pages we already scanned.  To guarantee consistent
     * results for a non-MVCC snapshot, the caller must hold some higher-level
     * lock that ensures the interesting tuple(s) won't change.)
     */
@@ -114,7 +114,7 @@ initscan(HeapScanDesc scan, ScanKey key, bool is_rescan)
 
    /*
     * If the table is large relative to NBuffers, use a bulk-read access
-    * strategy and enable synchronized scanning (see syncscan.c).  Although
+    * strategy and enable synchronized scanning (see syncscan.c).  Although
     * the thresholds for these features could be different, we make them the
     * same so that there are only two behaviors to tune rather than four.
     * (However, some callers need to be able to disable one or both of these
@@ -243,7 +243,7 @@ heapgetpage(HeapScanDesc scan, BlockNumber page)
 
    /*
     * We must hold share lock on the buffer content while examining tuple
-    * visibility.  Afterwards, however, the tuples we have found to be
+    * visibility.  Afterwards, however, the tuples we have found to be
     * visible are guaranteed good as long as we hold the buffer pin.
     */
    LockBuffer(buffer, BUFFER_LOCK_SHARE);
@@ -1640,7 +1640,7 @@ heap_hot_search(ItemPointer tid, Relation relation, Snapshot snapshot,
  * possibly uncommitted version.
  *
  * *tid is both an input and an output parameter: it is updated to
- * show the latest version of the row. Note that it will not be changed
+ * show the latest version of the row.  Note that it will not be changed
  * if no version of the row passes the snapshot test.
  */
 void
@@ -1758,7 +1758,7 @@ heap_get_latest_tid(Relation relation,
  *
  * This is called after we have waited for the XMAX transaction to terminate.
  * If the transaction aborted, we guarantee the XMAX_INVALID hint bit will
- * be set on exit. If the transaction committed, we set the XMAX_COMMITTED
+ * be set on exit.  If the transaction committed, we set the XMAX_COMMITTED
  * hint bit if possible --- but beware that that may not yet be possible,
  * if the transaction committed asynchronously.  Hence callers should look
  * only at XMAX_INVALID.
@@ -1831,7 +1831,7 @@ FreeBulkInsertState(BulkInsertState bistate)
  * The return value is the OID assigned to the tuple (either here or by the
  * caller), or InvalidOid if no OID.  The header fields of *tup are updated
  * to match the stored tuple; in particular tup->t_self receives the actual
- * TID where the tuple was stored. But note that any toasting of fields
+ * TID where the tuple was stored.  But note that any toasting of fields
  * within the tuple data is NOT reflected into *tup.
  */
 Oid
@@ -1852,7 +1852,7 @@ heap_insert(Relation relation, HeapTuple tup, CommandId cid,
 
        /*
         * If the object id of this tuple has already been assigned, trust the
-        * caller.  There are a couple of ways this can happen.  At initial db
+        * caller.  There are a couple of ways this can happen.  At initial db
         * creation, the backend program sets oids for tuples. When we define
         * an index, we set the oid.  Finally, in the future, we may allow
         * users to set their own object ids in order to support a persistent
@@ -2138,10 +2138,10 @@ l1:
            /*
             * You might think the multixact is necessarily done here, but not
             * so: it could have surviving members, namely our own xact or
-            * other subxacts of this backend.  It is legal for us to delete
+            * other subxacts of this backend.  It is legal for us to delete
             * the tuple in either case, however (the latter case is
             * essentially a situation of upgrading our former shared lock to
-            * exclusive).  We don't bother changing the on-disk hint bits
+            * exclusive).  We don't bother changing the on-disk hint bits
             * since we are about to overwrite the xmax altogether.
             */
        }
@@ -2205,7 +2205,7 @@ l1:
    /*
     * If this transaction commits, the tuple will become DEAD sooner or
     * later.  Set flag that this page is a candidate for pruning once our xid
-    * falls below the OldestXmin horizon.  If the transaction finally aborts,
+    * falls below the OldestXmin horizon.  If the transaction finally aborts,
     * the subsequent page pruning will be a no-op and the hint will be
     * cleared.
     */
@@ -2306,7 +2306,7 @@ l1:
  *
  * This routine may be used to delete a tuple when concurrent updates of
  * the target tuple are not expected (for example, because we have a lock
- * on the relation associated with the tuple). Any failure is reported
+ * on the relation associated with the tuple).  Any failure is reported
  * via ereport().
  */
 void
@@ -2402,7 +2402,7 @@ heap_update(Relation relation, ItemPointer otid, HeapTuple newtup,
    /*
     * Fetch the list of attributes to be checked for HOT update.  This is
     * wasted effort if we fail to update or have to put the new tuple on a
-    * different page.  But we must compute the list before obtaining buffer
+    * different page.  But we must compute the list before obtaining buffer
     * lock --- in the worst case, if we are doing an update on one of the
     * relevant system catalogs, we could deadlock if we try to fetch the list
     * later.  In any case, the relcache caches the data so this is usually
@@ -2490,10 +2490,10 @@ l2:
            /*
             * You might think the multixact is necessarily done here, but not
             * so: it could have surviving members, namely our own xact or
-            * other subxacts of this backend.  It is legal for us to update
+            * other subxacts of this backend.  It is legal for us to update
             * the tuple in either case, however (the latter case is
             * essentially a situation of upgrading our former shared lock to
-            * exclusive).  We don't bother changing the on-disk hint bits
+            * exclusive).  We don't bother changing the on-disk hint bits
             * since we are about to overwrite the xmax altogether.
             */
        }
@@ -2583,7 +2583,7 @@ l2:
     * If the toaster needs to be activated, OR if the new tuple will not fit
     * on the same page as the old, then we need to release the content lock
     * (but not the pin!) on the old tuple's buffer while we are off doing
-    * TOAST and/or table-file-extension work.  We must mark the old tuple to
+    * TOAST and/or table-file-extension work.  We must mark the old tuple to
     * show that it's already being updated, else other processes may try to
     * update it themselves.
     *
@@ -2648,7 +2648,7 @@ l2:
         * there's more free now than before.
         *
         * What's more, if we need to get a new page, we will need to acquire
-        * buffer locks on both old and new pages.  To avoid deadlock against
+        * buffer locks on both old and new pages.  To avoid deadlock against
         * some other backend trying to get the same two locks in the other
         * order, we must be consistent about the order we get the locks in.
         * We use the rule "lock the lower-numbered page of the relation
@@ -2696,7 +2696,7 @@ l2:
 
    /*
     * At this point newbuf and buffer are both pinned and locked, and newbuf
-    * has enough space for the new tuple.  If they are the same buffer, only
+    * has enough space for the new tuple.  If they are the same buffer, only
     * one pin is held.
     */
 
@@ -2704,7 +2704,7 @@ l2:
    {
        /*
         * Since the new tuple is going into the same page, we might be able
-        * to do a HOT update.  Check if any of the index columns have been
+        * to do a HOT update.  Check if any of the index columns have been
         * changed.  If not, then HOT update is possible.
         */
        if (HeapSatisfiesHOTUpdate(relation, hot_attrs, &oldtup, heaptup))
@@ -2722,13 +2722,13 @@ l2:
    /*
     * If this transaction commits, the old tuple will become DEAD sooner or
     * later.  Set flag that this page is a candidate for pruning once our xid
-    * falls below the OldestXmin horizon.  If the transaction finally aborts,
+    * falls below the OldestXmin horizon.  If the transaction finally aborts,
     * the subsequent page pruning will be a no-op and the hint will be
     * cleared.
     *
     * XXX Should we set hint on newbuf as well?  If the transaction aborts,
     * there would be a prunable tuple in the newbuf; but for now we choose
-    * not to optimize for aborts.  Note that heap_xlog_update must be kept in
+    * not to optimize for aborts.  Note that heap_xlog_update must be kept in
     * sync if this decision changes.
     */
    PageSetPrunable(page, xid);
@@ -2892,7 +2892,7 @@ heap_tuple_attr_equals(TupleDesc tupdesc, int attrnum,
 
    /*
     * Extract the corresponding values.  XXX this is pretty inefficient if
-    * there are many indexed columns.  Should HeapSatisfiesHOTUpdate do a
+    * there are many indexed columns.  Should HeapSatisfiesHOTUpdate do a
     * single heap_deform_tuple call on each tuple, instead?  But that doesn't
     * work for system columns ...
     */
@@ -2915,7 +2915,7 @@ heap_tuple_attr_equals(TupleDesc tupdesc, int attrnum,
    /*
     * We do simple binary comparison of the two datums.  This may be overly
     * strict because there can be multiple binary representations for the
-    * same logical value.  But we should be OK as long as there are no false
+    * same logical value.  But we should be OK as long as there are no false
     * positives.  Using a type-specific equality operator is messy because
     * there could be multiple notions of equality in different operator
     * classes; furthermore, we cannot safely invoke user-defined functions
@@ -2971,7 +2971,7 @@ HeapSatisfiesHOTUpdate(Relation relation, Bitmapset *hot_attrs,
  *
  * This routine may be used to update a tuple when concurrent updates of
  * the target tuple are not expected (for example, because we have a lock
- * on the relation associated with the tuple). Any failure is reported
+ * on the relation associated with the tuple).  Any failure is reported
  * via ereport().
  */
 void
@@ -3053,7 +3053,7 @@ simple_heap_update(Relation relation, ItemPointer otid, HeapTuple tup)
  * waiter gets the tuple, potentially leading to indefinite starvation of
  * some waiters.  The possibility of share-locking makes the problem much
  * worse --- a steady stream of share-lockers can easily block an exclusive
- * locker forever. To provide more reliable semantics about who gets a
+ * locker forever.  To provide more reliable semantics about who gets a
  * tuple-level lock first, we use the standard lock manager.  The protocol
  * for waiting for a tuple-level lock is really
  *     LockTuple()
@@ -3061,7 +3061,7 @@ simple_heap_update(Relation relation, ItemPointer otid, HeapTuple tup)
  *     mark tuple as locked by me
  *     UnlockTuple()
  * When there are multiple waiters, arbitration of who is to get the lock next
- * is provided by LockTuple(). However, at most one tuple-level lock will
+ * is provided by LockTuple().  However, at most one tuple-level lock will
  * be held or awaited per backend at any time, so we don't risk overflow
  * of the lock table.  Note that incoming share-lockers are required to
  * do LockTuple as well, if there is any conflict, to ensure that they don't
@@ -3203,7 +3203,7 @@ l3:
            /*
             * You might think the multixact is necessarily done here, but not
             * so: it could have surviving members, namely our own xact or
-            * other subxacts of this backend.  It is legal for us to lock the
+            * other subxacts of this backend.  It is legal for us to lock the
             * tuple in either case, however.  We don't bother changing the
             * on-disk hint bits since we are about to overwrite the xmax
             * altogether.
@@ -3361,7 +3361,7 @@ l3:
                /*
                 * Can get here iff HeapTupleSatisfiesUpdate saw the old xmax
                 * as running, but it finished before
-                * TransactionIdIsInProgress() got to run.  Treat it like
+                * TransactionIdIsInProgress() got to run.  Treat it like
                 * there's no locker in the tuple.
                 */
            }
@@ -3397,8 +3397,8 @@ l3:
    MarkBufferDirty(*buffer);
 
    /*
-    * XLOG stuff.  You might think that we don't need an XLOG record because
-    * there is no state change worth restoring after a crash.  You would be
+    * XLOG stuff.  You might think that we don't need an XLOG record because
+    * there is no state change worth restoring after a crash.  You would be
     * wrong however: we have just written either a TransactionId or a
     * MultiXactId that may never have been seen on disk before, and we need
     * to make sure that there are XLOG entries covering those ID numbers.
@@ -3460,7 +3460,7 @@ l3:
  * heap_inplace_update - update a tuple "in place" (ie, overwrite it)
  *
  * Overwriting violates both MVCC and transactional safety, so the uses
- * of this function in Postgres are extremely limited. Nonetheless we
+ * of this function in Postgres are extremely limited.  Nonetheless we
  * find some places to use it.
  *
  * The tuple cannot change size, and therefore it's reasonable to assume
@@ -3614,7 +3614,7 @@ heap_freeze_tuple(HeapTupleHeader tuple, TransactionId cutoff_xid,
    /*
     * When we release shared lock, it's possible for someone else to change
     * xmax before we get the lock back, so repeat the check after acquiring
-    * exclusive lock.  (We don't need this pushup for xmin, because only
+    * exclusive lock.  (We don't need this pushup for xmin, because only
     * VACUUM could be interested in changing an existing tuple's xmin, and
     * there's only one VACUUM allowed on a table at a time.)
     */
@@ -3755,7 +3755,7 @@ heap_restrpos(HeapScanDesc scan)
    else
    {
        /*
-        * If we reached end of scan, rs_inited will now be false.  We must
+        * If we reached end of scan, rs_inited will now be false.  We must
         * reset it to true to keep heapgettup from doing the wrong thing.
         */
        scan->rs_inited = true;
@@ -3866,7 +3866,7 @@ log_heap_clean(Relation reln, Buffer buffer,
 }
 
 /*
- * Perform XLogInsert for a heap-freeze operation. Caller must already
+ * Perform XLogInsert for a heap-freeze operation.  Caller must already
  * have modified the buffer and marked it dirty.
  */
 XLogRecPtr
@@ -3909,7 +3909,7 @@ log_heap_freeze(Relation reln, Buffer buffer,
 }
 
 /*
- * Perform XLogInsert for a heap-update operation. Caller must already
+ * Perform XLogInsert for a heap-update operation.  Caller must already
  * have modified the buffer(s) and marked them dirty.
  */
 static XLogRecPtr
@@ -4032,7 +4032,7 @@ log_heap_move(Relation reln, Buffer oldbuf, ItemPointerData from,
  * for writing the page to disk after calling this routine.
  *
  * Note: all current callers build pages in private memory and write them
- * directly to smgr, rather than using bufmgr. Therefore there is no need
+ * directly to smgr, rather than using bufmgr.  Therefore there is no need
  * to pass a buffer ID to XLogInsert, nor to perform MarkBufferDirty within
  * the critical section.
  *
index 7ed8612357ae0abc37aa8960113fc22f18c736c0..d3771a58629710d9a23505c65d97ee05af32ef24 100644 (file)
@@ -116,7 +116,7 @@ ReadBufferBI(Relation relation, BlockNumber targetBlock,
  * NOTE: it is unlikely, but not quite impossible, for otherBuffer to be the
  * same buffer we select for insertion of the new tuple (this could only
  * happen if space is freed in that page after heap_update finds there's not
- * enough there).  In that case, the page will be pinned and locked only once.
+ * enough there).  In that case, the page will be pinned and locked only once.
  *
  * We normally use FSM to help us find free space.  However,
  * if HEAP_INSERT_SKIP_FSM is specified, we just append a new empty page to
@@ -133,7 +133,7 @@ ReadBufferBI(Relation relation, BlockNumber targetBlock,
  * for additional constraints needed for safe usage of this behavior.)
  *
  * The caller can also provide a BulkInsertState object to optimize many
- * insertions into the same relation.  This keeps a pin on the current
+ * insertions into the same relation.  This keeps a pin on the current
  * insertion target page (to save pin/unpin cycles) and also passes a
  * BULKWRITE buffer selection strategy object to the buffer manager.
  * Passing NULL for bistate selects the default behavior.
@@ -186,7 +186,7 @@ RelationGetBufferForTuple(Relation relation, Size len,
 
    /*
     * We first try to put the tuple on the same page we last inserted a tuple
-    * on, as cached in the BulkInsertState or relcache entry.  If that
+    * on, as cached in the BulkInsertState or relcache entry.  If that
     * doesn't work, we ask the Free Space Map to locate a suitable page.
     * Since the FSM's info might be out of date, we have to be prepared to
     * loop around and retry multiple times. (To insure this isn't an infinite
@@ -218,7 +218,7 @@ RelationGetBufferForTuple(Relation relation, Size len,
 
        /*
         * If the FSM knows nothing of the rel, try the last page before we
-        * give up and extend.  This avoids one-tuple-per-page syndrome during
+        * give up and extend.  This avoids one-tuple-per-page syndrome during
         * bootstrapping or in a recently-started system.
         */
        if (targetBlock == InvalidBlockNumber)
@@ -279,7 +279,7 @@ RelationGetBufferForTuple(Relation relation, Size len,
 
        /*
         * Not enough space, so we must give up our page locks and pin (if
-        * any) and prepare to look elsewhere.  We don't care which order we
+        * any) and prepare to look elsewhere.  We don't care which order we
         * unlock the two buffers in, so this can be slightly simpler than the
         * code above.
         */
@@ -321,7 +321,7 @@ RelationGetBufferForTuple(Relation relation, Size len,
 
    /*
     * XXX This does an lseek - rather expensive - but at the moment it is the
-    * only way to accurately determine how many blocks are in a relation.  Is
+    * only way to accurately determine how many blocks are in a relation.  Is
     * it worth keeping an accurate file length in shared memory someplace,
     * rather than relying on the kernel to do it for us?
     */
@@ -341,7 +341,7 @@ RelationGetBufferForTuple(Relation relation, Size len,
 
    /*
     * Release the file-extension lock; it's now OK for someone else to extend
-    * the relation some more.  Note that we cannot release this lock before
+    * the relation some more.  Note that we cannot release this lock before
     * we have buffer lock on the new page, or we risk a race condition
     * against vacuumlazy.c --- see comments therein.
     */
index 71ea689d0e6b8a160c0ed854ae68606f0b21558e..6dc67e3894bb7ea63002d8e4604ce91e9a8459b1 100644 (file)
@@ -92,7 +92,7 @@ heap_page_prune_opt(Relation relation, Buffer buffer, TransactionId OldestXmin)
     * Checking free space here is questionable since we aren't holding any
     * lock on the buffer; in the worst case we could get a bogus answer. It's
     * unlikely to be *seriously* wrong, though, since reading either pd_lower
-    * or pd_upper is probably atomic.  Avoiding taking a lock seems more
+    * or pd_upper is probably atomic.  Avoiding taking a lock seems more
     * important than sometimes getting a wrong answer in what is after all
     * just a heuristic estimate.
     */
@@ -134,7 +134,7 @@ heap_page_prune_opt(Relation relation, Buffer buffer, TransactionId OldestXmin)
  *
  * If redirect_move is set, we remove redirecting line pointers by
  * updating the root line pointer to point directly to the first non-dead
- * tuple in the chain. NOTE: eliminating the redirect changes the first
+ * tuple in the chain.  NOTE: eliminating the redirect changes the first
  * tuple's effective CTID, and is therefore unsafe except within VACUUM FULL.
  * The only reason we support this capability at all is that by using it,
  * VACUUM FULL need not cope with LP_REDIRECT items at all; which seems a
@@ -333,8 +333,8 @@ heap_page_prune(Relation relation, Buffer buffer, TransactionId OldestXmin,
  * OldestXmin is the cutoff XID used to identify dead tuples.
  *
  * We don't actually change the page here, except perhaps for hint-bit updates
- * caused by HeapTupleSatisfiesVacuum. We just add entries to the arrays in
- * prstate showing the changes to be made. Items to be redirected are added
+ * caused by HeapTupleSatisfiesVacuum.  We just add entries to the arrays in
+ * prstate showing the changes to be made.  Items to be redirected are added
  * to the redirected[] array (two entries per redirection); items to be set to
  * LP_DEAD state are added to nowdead[]; and items to be set to LP_UNUSED
  * state are added to nowunused[].
@@ -381,7 +381,7 @@ heap_prune_chain(Relation relation, Buffer buffer, OffsetNumber rootoffnum,
             * We need this primarily to handle aborted HOT updates, that is,
             * XMIN_INVALID heap-only tuples.  Those might not be linked to by
             * any chain, since the parent tuple might be re-updated before
-            * any pruning occurs.  So we have to be able to reap them
+            * any pruning occurs.  So we have to be able to reap them
             * separately from chain-pruning.  (Note that
             * HeapTupleHeaderIsHotUpdated will never return true for an
             * XMIN_INVALID tuple, so this code will work even when there were
@@ -562,7 +562,7 @@ heap_prune_chain(Relation relation, Buffer buffer, OffsetNumber rootoffnum,
 
        /*
         * If the root entry had been a normal tuple, we are deleting it, so
-        * count it in the result.  But changing a redirect (even to DEAD
+        * count it in the result.  But changing a redirect (even to DEAD
         * state) doesn't count.
         */
        if (ItemIdIsNormal(rootlp))
@@ -692,7 +692,7 @@ heap_prune_record_unused(PruneState *prstate, OffsetNumber offnum)
  * buffer, and is inside a critical section.
  *
  * This is split out because it is also used by heap_xlog_clean()
- * to replay the WAL record when needed after a crash. Note that the
+ * to replay the WAL record when needed after a crash.  Note that the
  * arguments are identical to those of log_heap_clean().
  */
 void
index 4a8fe8d36ef20397a34d22b74ddcfb7a6a629df6..35cae4f664bf5dffa468767288ee71fd4ed08012 100644 (file)
@@ -10,7 +10,7 @@
  *
  * The caller is responsible for creating the new heap, all catalog
  * changes, supplying the tuples to be written to the new heap, and
- * rebuilding indexes. The caller must hold AccessExclusiveLock on the
+ * rebuilding indexes.  The caller must hold AccessExclusiveLock on the
  * target table, because we assume no one else is writing into it.
  *
  * To use the facility:
@@ -43,7 +43,7 @@
  * to substitute the correct ctid instead.
  *
  * For each ctid reference from A -> B, we might encounter either A first
- * or B first. (Note that a tuple in the middle of a chain is both A and B
+ * or B first.  (Note that a tuple in the middle of a chain is both A and B
  * of different pairs.)
  *
  * If we encounter A first, we'll store the tuple in the unresolved_tups
  * and can write A immediately with the correct ctid.
  *
  * Entries in the hash tables can be removed as soon as the later tuple
- * is encountered. That helps to keep the memory usage down.  At the end,
+ * is encountered.  That helps to keep the memory usage down.  At the end,
  * both tables are usually empty; we should have encountered both A and B
  * of each pair.  However, it's possible for A to be RECENTLY_DEAD and B
  * entirely DEAD according to HeapTupleSatisfiesVacuum, because the test
- * for deadness using OldestXmin is not exact. In such a case we might
+ * for deadness using OldestXmin is not exact.  In such a case we might
  * encounter B first, and skip it, and find A later.  Then A would be added
  * to unresolved_tups, and stay there until end of the rewrite.  Since
  * this case is very unusual, we don't worry about the memory usage.
@@ -78,7 +78,7 @@
  * of CLUSTERing on an unchanging key column, we'll see all the versions
  * of a given tuple together anyway, and so the peak memory usage is only
  * proportional to the number of RECENTLY_DEAD versions of a single row, not
- * in the whole table. Note that if we do fail halfway through a CLUSTER,
+ * in the whole table.  Note that if we do fail halfway through a CLUSTER,
  * the old table is still valid, so failure is not catastrophic.
  *
  * We can't use the normal heap_insert function to insert into the new
@@ -339,7 +339,7 @@ rewrite_heap_tuple(RewriteState state,
     * very-old xmin or xmax, so that future VACUUM effort can be saved.
     *
     * Note we abuse heap_freeze_tuple() a bit here, since it's expecting to
-    * be given a pointer to a tuple in a disk buffer.  It happens though that
+    * be given a pointer to a tuple in a disk buffer.  It happens though that
     * we can get the right things to happen by passing InvalidBuffer for the
     * buffer.
     */
@@ -543,7 +543,7 @@ rewrite_heap_dead_tuple(RewriteState state, HeapTuple old_tuple)
 }
 
 /*
- * Insert a tuple to the new relation. This has to track heap_insert
+ * Insert a tuple to the new relation.  This has to track heap_insert
  * and its subsidiary functions!
  *
  * t_self of the tuple is set to the new TID of the tuple. If t_ctid of the
index 6d7c42bcea269fef52b7c50ac0c970c193bac86f..d58c6180a8446e72b4c713d7ba5620869c8bd082 100644 (file)
@@ -4,7 +4,7 @@
  *   heap scan synchronization support
  *
  * When multiple backends run a sequential scan on the same table, we try
- * to keep them synchronized to reduce the overall I/O needed. The goal is
+ * to keep them synchronized to reduce the overall I/O needed.  The goal is
  * to read each page into shared buffer cache only once, and let all backends
  * that take part in the shared scan process the page before it falls out of
  * the cache.
@@ -26,7 +26,7 @@
  * don't want such queries to slow down others.
  *
  * There can realistically only be a few large sequential scans on different
- * tables in progress at any time. Therefore we just keep the scan positions
+ * tables in progress at any time.  Therefore we just keep the scan positions
  * in a small LRU list which we scan every time we need to look up or update a
  * scan position.  The whole mechanism is only applied for tables exceeding
  * a threshold size (but that is not the concern of this module).
@@ -245,7 +245,7 @@ ss_search(RelFileNode relfilenode, BlockNumber location, bool set)
  * relation, or 0 if no valid location is found.
  *
  * We expect the caller has just done RelationGetNumberOfBlocks(), and
- * so that number is passed in rather than computing it again. The result
+ * so that number is passed in rather than computing it again.  The result
  * is guaranteed less than relnblocks (assuming that's > 0).
  */
 BlockNumber
index 8bf6ccb7d8dfb9dfc0f0fb487883c4e1743a61b0..e0d8f2802eed5eaead2d3288f91464b6a54431dc 100644 (file)
@@ -545,7 +545,7 @@ toast_insert_or_update(Relation rel, HeapTuple newtup, HeapTuple oldtup,
             * We took care of UPDATE above, so any external value we find
             * still in the tuple must be someone else's we cannot reuse.
             * Fetch it back (without decompression, unless we are forcing
-            * PLAIN storage).  If necessary, we'll push it out as a new
+            * PLAIN storage).  If necessary, we'll push it out as a new
             * external value below.
             */
            if (VARATT_IS_EXTERNAL(new_value))
@@ -686,7 +686,7 @@ toast_insert_or_update(Relation rel, HeapTuple newtup, HeapTuple oldtup,
 
    /*
     * Second we look for attributes of attstorage 'x' or 'e' that are still
-    * inline.  But skip this if there's no toast table to push them to.
+    * inline.  But skip this if there's no toast table to push them to.
     */
    while (heap_compute_data_size(tupleDesc,
                                  toast_values, toast_isnull) > maxDataLen &&
@@ -1310,7 +1310,7 @@ toast_save_datum(Relation rel, Datum value, int options)
        heap_insert(toastrel, toasttup, mycid, options, NULL);
 
        /*
-        * Create the index entry.  We cheat a little here by not using
+        * Create the index entry.  We cheat a little here by not using
         * FormIndexDatum: this relies on the knowledge that the index columns
         * are the same as the initial columns of the table.
         *
index 5662bb01088ef067fda67183619751e8a88595b2..692ff4c2298215097298d490f0c22988375039c2 100644 (file)
@@ -41,7 +41,7 @@
  *
  *     At the end of a scan, the AM's endscan routine undoes the locking,
  *     but does *not* call IndexScanEnd --- the higher-level index_endscan
- *     routine does that.  (We can't do it in the AM because index_endscan
+ *     routine does that.  (We can't do it in the AM because index_endscan
  *     still needs to touch the IndexScanDesc after calling the AM.)
  *
  *     Because of this, the AM does not have a choice whether to call
@@ -336,7 +336,7 @@ systable_endscan(SysScanDesc sysscan)
  * index order.  Also, for largely historical reasons, the index to use
  * is opened and locked by the caller, not here.
  *
- * Currently we do not support non-index-based scans here. (In principle
+ * Currently we do not support non-index-based scans here.  (In principle
  * we could do a heapscan and sort, but the uses are in places that
  * probably don't need to still work with corrupted catalog indexes.)
  * For the moment, therefore, these functions are merely the thinnest of
index 32623965c78d32afd9cd2490d8feaa9b5be3d45e..813ebe9d7858508a86221658ab92cb06deebe0bc 100644 (file)
@@ -126,7 +126,7 @@ static IndexScanDesc index_beginscan_internal(Relation indexRelation,
  *     index_open - open an index relation by relation OID
  *
  *     If lockmode is not "NoLock", the specified kind of lock is
- *     obtained on the index.  (Generally, NoLock should only be
+ *     obtained on the index.  (Generally, NoLock should only be
  *     used if the caller knows it has some appropriate lock on the
  *     index already.)
  *
@@ -287,7 +287,7 @@ index_beginscan_internal(Relation indexRelation,
  *     index_rescan  - (re)start a scan of an index
  *
  * The caller may specify a new set of scankeys (but the number of keys
- * cannot change). To restart the scan without changing keys, pass NULL
+ * cannot change).  To restart the scan without changing keys, pass NULL
  * for the key array.
  *
  * Note that this is also called when first starting an indexscan;
@@ -375,7 +375,7 @@ index_markpos(IndexScanDesc scan)
  * returnable tuple in each HOT chain, and so restoring the prior state at the
  * granularity of the index AM is sufficient.  Since the only current user
  * of mark/restore functionality is nodeMergejoin.c, this effectively means
- * that merge-join plans only work for MVCC snapshots. This could be fixed
+ * that merge-join plans only work for MVCC snapshots.  This could be fixed
  * if necessary, but for now it seems unimportant.
  * ----------------
  */
@@ -400,7 +400,7 @@ index_restrpos(IndexScanDesc scan)
  *     index_getnext - get the next heap tuple from a scan
  *
  * The result is the next heap tuple satisfying the scan keys and the
- * snapshot, or NULL if no more matching tuples exist. On success,
+ * snapshot, or NULL if no more matching tuples exist.  On success,
  * the buffer containing the heap tuple is pinned (the pin will be dropped
  * at the next index_getnext or index_endscan).
  *
@@ -438,7 +438,7 @@ index_getnext(IndexScanDesc scan, ScanDirection direction)
        {
            /*
             * We are resuming scan of a HOT chain after having returned an
-            * earlier member.  Must still hold pin on current heap page.
+            * earlier member.  Must still hold pin on current heap page.
             */
            Assert(BufferIsValid(scan->xs_cbuf));
            Assert(ItemPointerGetBlockNumber(tid) ==
@@ -556,7 +556,7 @@ index_getnext(IndexScanDesc scan, ScanDirection direction)
 
            /*
             * The xmin should match the previous xmax value, else chain is
-            * broken.  (Note: this test is not optional because it protects
+            * broken.  (Note: this test is not optional because it protects
             * us against the case where the prior chain member's xmax aborted
             * since we looked at it.)
             */
@@ -758,7 +758,7 @@ index_vacuum_cleanup(IndexVacuumInfo *info,
  *     particular indexed attribute are those with both types equal to
  *     the index opclass' opcintype (note that this is subtly different
  *     from the indexed attribute's own type: it may be a binary-compatible
- *     type instead).  Only the default functions are stored in relcache
+ *     type instead).  Only the default functions are stored in relcache
  *     entries --- access methods can use the syscache to look up non-default
  *     functions.
  *
@@ -792,7 +792,7 @@ index_getprocid(Relation irel,
  *     index_getprocinfo
  *
  *     This routine allows index AMs to keep fmgr lookup info for
- *     support procs in the relcache.  As above, only the "default"
+ *     support procs in the relcache.  As above, only the "default"
  *     functions for any particular indexed attribute are cached.
  *
  * Note: the return value points into cached data that will be lost during
index db70993d963bf8966759a394cde20a20dba9b72c..f544a72fc74983267b1e67add6d827e699224e45 100644 (file)
@@ -25,7 +25,7 @@
  * Although any negative int32 (except INT_MIN) is acceptable for reporting
  * "<", and any positive int32 is acceptable for reporting ">", routines
  * that work on 32-bit or wider datatypes can't just return "a - b".
- * That could overflow and give the wrong answer.  Also, one must not
+ * That could overflow and give the wrong answer.  Also, one must not
  * return INT_MIN to report "<", since some callers will negate the result.
  *
  * NOTE: it is critical that the comparison function impose a total order
index e8cdadfebd5c379075a197d19fbf4d2999388952..fd17476b7669ce935bc9ffc4f23e3e0c4c246177 100644 (file)
@@ -112,7 +112,7 @@ top:
     * If the page was split between the time that we surrendered our read
     * lock and acquired our write lock, then this page may no longer be the
     * right place for the key we want to insert.  In this case, we need to
-    * move right in the tree.  See Lehman and Yao for an excruciatingly
+    * move right in the tree.  See Lehman and Yao for an excruciatingly
     * precise description.
     */
    buf = _bt_moveright(rel, buf, natts, itup_scankey, false, BT_WRITE);
@@ -169,7 +169,7 @@ top:
  * is the first tuple on the next page.
  *
  * Returns InvalidTransactionId if there is no conflict, else an xact ID
- * we must wait for to see if it commits a conflicting tuple.  If an actual
+ * we must wait for to see if it commits a conflicting tuple.   If an actual
  * conflict is detected, no return --- just ereport().
  */
 static TransactionId
@@ -361,7 +361,7 @@ _bt_check_unique(Relation rel, IndexTuple itup, Relation heapRel,
  *     If the new key is equal to one or more existing keys, we can
  *     legitimately place it anywhere in the series of equal keys --- in fact,
  *     if the new key is equal to the page's "high key" we can place it on
- *     the next page.  If it is equal to the high key, and there's not room
+ *     the next page.  If it is equal to the high key, and there's not room
  *     to insert the new tuple on the current page without splitting, then
  *     we can move right hoping to find more free space and avoid a split.
  *     (We should not move right indefinitely, however, since that leads to
@@ -373,7 +373,7 @@ _bt_check_unique(Relation rel, IndexTuple itup, Relation heapRel,
  *     removing any LP_DEAD tuples.
  *
  *     On entry, *buf and *offsetptr point to the first legal position
- *     where the new tuple could be inserted.  The caller should hold an
+ *     where the new tuple could be inserted.  The caller should hold an
  *     exclusive lock on *buf.  *offsetptr can also be set to
  *     InvalidOffsetNumber, in which case the function will search for the
  *     right location within the page if needed.  On exit, they point to the
@@ -438,7 +438,7 @@ _bt_findinsertloc(Relation rel,
     * on every insert.  We implement "get tired" as a random choice,
     * since stopping after scanning a fixed number of pages wouldn't work
     * well (we'd never reach the right-hand side of previously split
-    * pages).  Currently the probability of moving right is set at 0.99,
+    * pages).  Currently the probability of moving right is set at 0.99,
     * which may seem too high to change the behavior much, but it does an
     * excellent job of preventing O(N^2) behavior with many equal keys.
     *----------
@@ -539,7 +539,7 @@ _bt_findinsertloc(Relation rel,
  *         +  updates the metapage if a true root or fast root is split.
  *
  *     On entry, we must have the right buffer in which to do the
- *     insertion, and the buffer must be pinned and write-locked.  On return,
+ *     insertion, and the buffer must be pinned and write-locked.  On return,
  *     we will have dropped both the pin and the lock on the buffer.
  *
  *     The locking interactions in this code are critical.  You should
@@ -1018,7 +1018,7 @@ _bt_split(Relation rel, Buffer buf, OffsetNumber firstright,
         * page.  If you're confused, imagine that page A splits to A B and
         * then again, yielding A C B, while vacuum is in progress.  Tuples
         * originally in A could now be in either B or C, hence vacuum must
-        * examine both pages.  But if D, our right sibling, has a different
+        * examine both pages.  But if D, our right sibling, has a different
         * cycleid then it could not contain any tuples that were in A when
         * the vacuum started.
         */
@@ -1240,7 +1240,7 @@ _bt_split(Relation rel, Buffer buf, OffsetNumber firstright,
  *
  * We return the index of the first existing tuple that should go on the
  * righthand page, plus a boolean indicating whether the new tuple goes on
- * the left or right page. The bool is necessary to disambiguate the case
+ * the left or right page.  The bool is necessary to disambiguate the case
  * where firstright == newitemoff.
  */
 static OffsetNumber
@@ -1476,7 +1476,7 @@ _bt_checksplitloc(FindSplitData *state,
  *
  * On entry, buf and rbuf are the left and right split pages, which we
  * still hold write locks on per the L&Y algorithm.  We release the
- * write locks once we have write lock on the parent page. (Any sooner,
+ * write locks once we have write lock on the parent page.  (Any sooner,
  * and it'd be possible for some other process to try to split or delete
  * one of these pages, and get confused because it cannot find the downlink.)
  *
@@ -1499,7 +1499,7 @@ _bt_insert_parent(Relation rel,
     * Here we have to do something Lehman and Yao don't talk about: deal with
     * a root split and construction of a new root.  If our stack is empty
     * then we have just split a node on what had been the root level when we
-    * descended the tree.  If it was still the root then we perform a
+    * descended the tree.  If it was still the root then we perform a
     * new-root construction.  If it *wasn't* the root anymore, search to find
     * the next higher level that someone constructed meanwhile, and find the
     * right place to insert as for the normal case.
@@ -1649,7 +1649,7 @@ _bt_getstackbuf(Relation rel, BTStack stack, int access)
            /*
             * These loops will check every item on the page --- but in an
             * order that's attuned to the probability of where it actually
-            * is.  Scan to the right first, then to the left.
+            * is.  Scan to the right first, then to the left.
             */
            for (offnum = start;
                 offnum <= maxoff;
index 9fa29776dfb340319f20ce3945aebdb236a46f19..8cfdcf24a0c4f0275386565c2d4589707992a686 100644 (file)
@@ -12,7 +12,7 @@
  *   $PostgreSQL: pgsql/src/backend/access/nbtree/nbtpage.c,v 1.113.2.1 2010/08/29 19:33:29 tgl Exp $
  *
  * NOTES
- *    Postgres btree pages look like ordinary relation pages.  The opaque
+ *    Postgres btree pages look like ordinary relation pages.  The opaque
  *    data at high addresses includes pointers to left and right siblings
  *    and flag data describing page state.  The first page in a btree, page
  *    zero, is special -- it stores meta-information describing the tree.
@@ -56,7 +56,7 @@ _bt_initmetapage(Page page, BlockNumber rootbknum, uint32 level)
    metaopaque->btpo_flags = BTP_META;
 
    /*
-    * Set pd_lower just past the end of the metadata.  This is not essential
+    * Set pd_lower just past the end of the metadata.  This is not essential
     * but it makes the page look compressible to xlog.c.
     */
    ((PageHeader) page)->pd_lower =
@@ -74,7 +74,7 @@ _bt_initmetapage(Page page, BlockNumber rootbknum, uint32 level)
  *
  *     The access type parameter (BT_READ or BT_WRITE) controls whether
  *     a new root page will be created or not.  If access = BT_READ,
- *     and no root page exists, we just return InvalidBuffer.  For
+ *     and no root page exists, we just return InvalidBuffer.  For
  *     BT_WRITE, we try to create the root page if it doesn't exist.
  *     NOTE that the returned root page will have only a read lock set
  *     on it even if access = BT_WRITE!
@@ -191,7 +191,7 @@ _bt_getroot(Relation rel, int access)
            /*
             * Metadata initialized by someone else.  In order to guarantee no
             * deadlocks, we have to release the metadata page and start all
-            * over again.  (Is that really true? But it's hardly worth trying
+            * over again.  (Is that really true? But it's hardly worth trying
             * to optimize this case.)
             */
            _bt_relbuf(rel, metabuf);
@@ -256,7 +256,7 @@ _bt_getroot(Relation rel, int access)
        CacheInvalidateRelcache(rel);
 
        /*
-        * swap root write lock for read lock.  There is no danger of anyone
+        * swap root write lock for read lock.  There is no danger of anyone
         * else accessing the new root page while it's unlocked, since no one
         * else knows where it is yet.
         */
@@ -324,7 +324,7 @@ _bt_getroot(Relation rel, int access)
  * By the time we acquire lock on the root page, it might have been split and
  * not be the true root anymore.  This is okay for the present uses of this
  * routine; we only really need to be able to move up at least one tree level
- * from whatever non-root page we were at. If we ever do need to lock the
+ * from whatever non-root page we were at.  If we ever do need to lock the
  * one true root page, we could loop here, re-reading the metapage on each
  * failure.  (Note that it wouldn't do to hold the lock on the metapage while
  * moving to the root --- that'd deadlock against any concurrent root split.)
@@ -423,7 +423,7 @@ _bt_checkpage(Relation rel, Buffer buf)
    /*
     * ReadBuffer verifies that every newly-read page passes
     * PageHeaderIsValid, which means it either contains a reasonably sane
-    * page header or is all-zero.  We have to defend against the all-zero
+    * page header or is all-zero.  We have to defend against the all-zero
     * case, however.
     */
    if (PageIsNew(page))
@@ -449,7 +449,7 @@ _bt_checkpage(Relation rel, Buffer buf)
 /*
  * _bt_getbuf() -- Get a buffer by block number for read or write.
  *
- *     blkno == P_NEW means to get an unallocated index page.  The page
+ *     blkno == P_NEW means to get an unallocated index page.  The page
  *     will be initialized before returning it.
  *
  *     When this routine returns, the appropriate lock is set on the
@@ -480,7 +480,7 @@ _bt_getbuf(Relation rel, BlockNumber blkno, int access)
         * First see if the FSM knows of any free pages.
         *
         * We can't trust the FSM's report unreservedly; we have to check that
-        * the page is still free.  (For example, an already-free page could
+        * the page is still free.  (For example, an already-free page could
         * have been re-used between the time the last VACUUM scanned it and
         * the time the VACUUM made its FSM updates.)
         *
@@ -647,7 +647,7 @@ _bt_page_recyclable(Page page)
 /*
  * Delete item(s) from a btree page.
  *
- * This must only be used for deleting leaf items. Deleting an item on a
+ * This must only be used for deleting leaf items.  Deleting an item on a
  * non-leaf page has to be done as part of an atomic action that includes
  * deleting the page it points to.
  *
@@ -704,7 +704,7 @@ _bt_delitems(Relation rel, Buffer buf,
 
        /*
         * The target-offsets array is not in the buffer, but pretend that it
-        * is.  When XLogInsert stores the whole buffer, the offsets array
+        * is.  When XLogInsert stores the whole buffer, the offsets array
         * need not be stored too.
         */
        if (nitems > 0)
@@ -869,7 +869,7 @@ _bt_pagedel(Relation rel, Buffer buf, BTStack stack, bool vacuum_full)
    BTPageOpaque opaque;
 
    /*
-    * We can never delete rightmost pages nor root pages.  While at it, check
+    * We can never delete rightmost pages nor root pages.  While at it, check
     * that page is not already deleted and is empty.
     */
    page = BufferGetPage(buf);
@@ -941,7 +941,7 @@ _bt_pagedel(Relation rel, Buffer buf, BTStack stack, bool vacuum_full)
            /*
             * During WAL recovery, we can't use _bt_search (for one reason,
             * it might invoke user-defined comparison functions that expect
-            * facilities not available in recovery mode).  Instead, just set
+            * facilities not available in recovery mode).  Instead, just set
             * up a dummy stack pointing to the left end of the parent tree
             * level, from which _bt_getstackbuf will walk right to the parent
             * page.  Painful, but we don't care too much about performance in
@@ -976,7 +976,7 @@ _bt_pagedel(Relation rel, Buffer buf, BTStack stack, bool vacuum_full)
     * target page.  The sibling that was current a moment ago could have
     * split, so we may have to move right.  This search could fail if either
     * the sibling or the target page was deleted by someone else meanwhile;
-    * if so, give up.  (Right now, that should never happen, since page
+    * if so, give up.  (Right now, that should never happen, since page
     * deletion is only done in VACUUM and there shouldn't be multiple VACUUMs
     * concurrently on the same table.)
     */
@@ -1005,7 +1005,7 @@ _bt_pagedel(Relation rel, Buffer buf, BTStack stack, bool vacuum_full)
        lbuf = InvalidBuffer;
 
    /*
-    * Next write-lock the target page itself.  It should be okay to take just
+    * Next write-lock the target page itself.  It should be okay to take just
     * a write lock not a superexclusive lock, since no scans would stop on an
     * empty page.
     */
index 1ffc91f0def147ec39d2f39bbb8b5ff3a788eb97..12da48b4302b1c16fe0414405d8f633fe197e2d6 100644 (file)
@@ -151,7 +151,7 @@ btbuild(PG_FUNCTION_ARGS)
    /*
     * If we are reindexing a pre-existing index, it is critical to send out a
     * relcache invalidation SI message to ensure all backends re-read the
-    * index metapage.  We expect that the caller will ensure that happens
+    * index metapage.  We expect that the caller will ensure that happens
     * (typically as a side effect of updating index stats, but it must happen
     * even if the stats don't change!)
     */
@@ -258,11 +258,11 @@ btgettuple(PG_FUNCTION_ARGS)
        if (scan->kill_prior_tuple)
        {
            /*
-            * Yes, remember it for later.  (We'll deal with all such tuples
+            * Yes, remember it for later.  (We'll deal with all such tuples
             * at once right before leaving the index page.)  The test for
             * numKilled overrun is not just paranoia: if the caller reverses
             * direction in the indexscan then the same item might get entered
-            * multiple times.  It's not worth trying to optimize that, so we
+            * multiple times.  It's not worth trying to optimize that, so we
             * don't detect it, but instead just forget any excess entries.
             */
            if (so->killedItems == NULL)
@@ -814,7 +814,7 @@ restart:
        LockBufferForCleanup(buf);
 
        /*
-        * Check whether we need to recurse back to earlier pages.  What we
+        * Check whether we need to recurse back to earlier pages.  What we
         * are concerned about is a page split that happened since we started
         * the vacuum scan.  If the split moved some tuples to a lower page
         * then we might have missed 'em.  If so, set up for tail recursion.
@@ -913,7 +913,7 @@ restart:
         * since there can be no other transactions scanning the index.  Note
         * that we will only recycle the current page and not any parent pages
         * that _bt_pagedel might have recursed to; this seems reasonable in
-        * the name of simplicity.  (Trying to do otherwise would mean we'd
+        * the name of simplicity.  (Trying to do otherwise would mean we'd
         * have to sort the list of recyclable pages we're building.)
         */
        if (ndel && info->vacuum_full)
index 78b47000621a87388138d80bbfc6e9b260dadfb3..adb13cee2370f34cd41ad77ad72012530bd6fc06 100644 (file)
@@ -49,7 +49,7 @@ static bool _bt_endpoint(IndexScanDesc scan, ScanDirection dir);
  *
  * NOTE that the returned buffer is read-locked regardless of the access
  * parameter.  However, access = BT_WRITE will allow an empty root page
- * to be created and returned. When access = BT_READ, an empty index
+ * to be created and returned.  When access = BT_READ, an empty index
  * will result in *bufP being set to InvalidBuffer.
  */
 BTStack
@@ -226,7 +226,7 @@ _bt_moveright(Relation rel,
  * (or leaf keys > given scankey when nextkey is true).
  *
  * This procedure is not responsible for walking right, it just examines
- * the given page. _bt_binsrch() has no lock or refcount side effects
+ * the given page.  _bt_binsrch() has no lock or refcount side effects
  * on the buffer.
  */
 OffsetNumber
@@ -358,7 +358,7 @@ _bt_compare(Relation rel,
    /*
     * The scan key is set up with the attribute number associated with each
     * term in the key.  It is important that, if the index is multi-key, the
-    * scan contain the first k key attributes, and that they be in order.  If
+    * scan contain the first k key attributes, and that they be in order.  If
     * you think about how multi-key ordering works, you'll understand why
     * this is.
     *
@@ -397,7 +397,7 @@ _bt_compare(Relation rel,
            /*
             * The sk_func needs to be passed the index value as left arg and
             * the sk_argument as right arg (they might be of different
-            * types).  Since it is convenient for callers to think of
+            * types).  Since it is convenient for callers to think of
             * _bt_compare as comparing the scankey to the index item, we have
             * to flip the sign of the comparison result.  (Unless it's a DESC
             * column, in which case we *don't* flip the sign.)
@@ -425,7 +425,7 @@ _bt_compare(Relation rel,
  * _bt_first() -- Find the first item in a scan.
  *
  *     We need to be clever about the direction of scan, the search
- *     conditions, and the tree ordering.  We find the first item (or,
+ *     conditions, and the tree ordering.  We find the first item (or,
  *     if backwards scan, the last item) in the tree that satisfies the
  *     qualifications in the scan key.  On success exit, the page containing
  *     the current index tuple is pinned but not locked, and data about
@@ -478,7 +478,7 @@ _bt_first(IndexScanDesc scan, ScanDirection dir)
     * We want to identify the keys that can be used as starting boundaries;
     * these are =, >, or >= keys for a forward scan or =, <, <= keys for
     * a backwards scan.  We can use keys for multiple attributes so long as
-    * the prior attributes had only =, >= (resp. =, <=) keys.  Once we accept
+    * the prior attributes had only =, >= (resp. =, <=) keys.  Once we accept
     * a > or < boundary or find an attribute with no boundary (which can be
     * thought of as the same as "> -infinity"), we can't use keys for any
     * attributes to its right, because it would break our simplistic notion
@@ -641,7 +641,7 @@ _bt_first(IndexScanDesc scan, ScanDirection dir)
             * even if the row comparison is of ">" or "<" type, because the
             * condition applied to all but the last row member is effectively
             * ">=" or "<=", and so the extra keys don't break the positioning
-            * scheme.  But, by the same token, if we aren't able to use all
+            * scheme.  But, by the same token, if we aren't able to use all
             * the row members, then the part of the row comparison that we
             * did use has to be treated as just a ">=" or "<=" condition, and
             * so we'd better adjust strat_total accordingly.
@@ -758,7 +758,7 @@ _bt_first(IndexScanDesc scan, ScanDirection dir)
 
            /*
             * Find first item >= scankey, then back up one to arrive at last
-            * item < scankey.  (Note: this positioning strategy is only used
+            * item < scankey.  (Note: this positioning strategy is only used
             * for a backward scan, so that is always the correct starting
             * position.)
             */
@@ -807,7 +807,7 @@ _bt_first(IndexScanDesc scan, ScanDirection dir)
        case BTGreaterEqualStrategyNumber:
 
            /*
-            * Find first item >= scankey.  (This is only used for forward
+            * Find first item >= scankey.  (This is only used for forward
             * scans.)
             */
            nextkey = false;
@@ -878,7 +878,7 @@ _bt_first(IndexScanDesc scan, ScanDirection dir)
     *
     * The actually desired starting point is either this item or the prior
     * one, or in the end-of-page case it's the first item on the next page or
-    * the last item on this page.  Adjust the starting offset if needed. (If
+    * the last item on this page.  Adjust the starting offset if needed. (If
     * this results in an offset before the first item or after the last one,
     * _bt_readpage will report no items found, and then we'll step to the
     * next page as needed.)
@@ -1161,7 +1161,7 @@ _bt_steppage(IndexScanDesc scan, ScanDirection dir)
         * than the walk-right case because of the possibility that the page
         * to our left splits while we are in flight to it, plus the
         * possibility that the page we were on gets deleted after we leave
-        * it.  See nbtree/README for details.
+        * it.  See nbtree/README for details.
         */
        for (;;)
        {
@@ -1255,7 +1255,7 @@ _bt_walk_left(Relation rel, Buffer buf)
         * anymore, not that its left sibling got split more than four times.
         *
         * Note that it is correct to test P_ISDELETED not P_IGNORE here,
-        * because half-dead pages are still in the sibling chain.  Caller
+        * because half-dead pages are still in the sibling chain.  Caller
         * must reject half-dead pages if wanted.
         */
        tries = 0;
@@ -1281,7 +1281,7 @@ _bt_walk_left(Relation rel, Buffer buf)
        if (P_ISDELETED(opaque))
        {
            /*
-            * It was deleted.  Move right to first nondeleted page (there
+            * It was deleted.  Move right to first nondeleted page (there
             * must be one); that is the page that has acquired the deleted
             * one's keyspace, so stepping left from it will take us where we
             * want to be.
@@ -1325,7 +1325,7 @@ _bt_walk_left(Relation rel, Buffer buf)
  * _bt_get_endpoint() -- Find the first or last page on a given tree level
  *
  * If the index is empty, we will return InvalidBuffer; any other failure
- * condition causes ereport(). We will not return a dead page.
+ * condition causes ereport().  We will not return a dead page.
  *
  * The returned buffer is pinned and read-locked.
  */
index d45b699fa202b100267c24156e9477eb1ae35596..29832ad52846cc5e793999b44a763e54b1a45273 100644 (file)
@@ -7,7 +7,7 @@
  *
  * We use tuplesort.c to sort the given index tuples into order.
  * Then we scan the index tuples in order and build the btree pages
- * for each level. We load source tuples into leaf-level pages.
+ * for each level.  We load source tuples into leaf-level pages.
  * Whenever we fill a page at one level, we add a link to it to its
  * parent level (starting a new parent level if necessary).  When
  * done, we write out each final page on each level, adding it to
  *
  * Since the index will never be used unless it is completely built,
  * from a crash-recovery point of view there is no need to WAL-log the
- * steps of the build. After completing the index build, we can just sync
+ * steps of the build.  After completing the index build, we can just sync
  * the whole file to disk using smgrimmedsync() before exiting this module.
  * This can be seen to be sufficient for crash recovery by considering that
  * it's effectively equivalent to what would happen if a CHECKPOINT occurred
- * just after the index build. However, it is clearly not sufficient if the
+ * just after the index build.  However, it is clearly not sufficient if the
  * DBA is using the WAL log for PITR or replication purposes, since another
  * machine would not be able to reconstruct the index from WAL.  Therefore,
  * we log the completed index pages to WAL if and only if WAL archiving is
@@ -87,7 +87,7 @@ struct BTSpool
 };
 
 /*
- * Status record for a btree page being built. We have one of these
+ * Status record for a btree page being built.  We have one of these
  * for each active tree level.
  *
  * The reason we need to store a copy of the minimum key is that we'll
@@ -156,7 +156,7 @@ _bt_spoolinit(Relation index, bool isunique, bool isdead)
     * We size the sort area as maintenance_work_mem rather than work_mem to
     * speed index creation.  This should be OK since a single backend can't
     * run multiple index creations in parallel.  Note that creation of a
-    * unique index actually requires two BTSpool objects.  We expect that the
+    * unique index actually requires two BTSpool objects.  We expect that the
     * second one (for dead tuples) won't get very full, so we give it only
     * work_mem.
     */
@@ -295,7 +295,7 @@ _bt_blwritepage(BTWriteState *wstate, Page page, BlockNumber blkno)
    }
 
    /*
-    * Now write the page.  We say isTemp = true even if it's not a temp
+    * Now write the page.  We say isTemp = true even if it's not a temp
     * index, because there's no need for smgr to schedule an fsync for this
     * write; we'll do it ourselves before ending the build.
     */
@@ -421,14 +421,14 @@ _bt_sortaddtup(Page page,
  * A leaf page being built looks like:
  *
  * +----------------+---------------------------------+
- * | PageHeaderData | linp0 linp1 linp2 ...              |
+ * | PageHeaderData | linp0 linp1 linp2 ...           |
  * +-----------+----+---------------------------------+
  * | ... linpN |                                     |
  * +-----------+--------------------------------------+
  * |    ^ last                                       |
  * |                                                 |
  * +-------------+------------------------------------+
- * |            | itemN ...                          |
+ * |            | itemN ...                          |
  * +-------------+------------------+-----------------+
  * |         ... item3 item2 item1 | "special space" |
  * +--------------------------------+-----------------+
@@ -489,9 +489,9 @@ _bt_buildadd(BTWriteState *wstate, BTPageState *state, IndexTuple itup)
                "or use full text indexing.")));
 
    /*
-    * Check to see if page is "full".  It's definitely full if the item won't
+    * Check to see if page is "full".  It's definitely full if the item won't
     * fit.  Otherwise, compare to the target freespace derived from the
-    * fillfactor.  However, we must put at least two items on each page, so
+    * fillfactor.  However, we must put at least two items on each page, so
     * disregard fillfactor if we don't have that many.
     */
    if (pgspc < itupsz || (pgspc < state->btps_full && last_off > P_FIRSTKEY))
@@ -564,7 +564,7 @@ _bt_buildadd(BTWriteState *wstate, BTPageState *state, IndexTuple itup)
        }
 
        /*
-        * Write out the old page.  We never need to touch it again, so we can
+        * Write out the old page.  We never need to touch it again, so we can
         * free the opage workspace too.
         */
        _bt_blwritepage(wstate, opage, oblkno);
index 1649307251cd8b0fdcb95f1af005c119509c45f1..e53c22391884494a26ec0cb4410beba03a20239f 100644 (file)
@@ -94,7 +94,7 @@ _bt_mkscankey(Relation rel, IndexTuple itup)
  *     comparison data ultimately used must match the key datatypes.
  *
  *     The result cannot be used with _bt_compare(), unless comparison
- *     data is first stored into the key entries.  Currently this
+ *     data is first stored into the key entries.  Currently this
  *     routine is only called by nbtsort.c and tuplesort.c, which have
  *     their own comparison routines.
  */
@@ -164,7 +164,7 @@ _bt_freestack(BTStack stack)
  * _bt_preprocess_keys() -- Preprocess scan keys
  *
  * The caller-supplied search-type keys (in scan->keyData[]) are copied to
- * so->keyData[] with possible transformation. scan->numberOfKeys is
+ * so->keyData[] with possible transformation.  scan->numberOfKeys is
  * the number of input keys, so->numberOfKeys gets the number of output
  * keys (possibly less, never greater).
  *
@@ -175,7 +175,7 @@ _bt_freestack(BTStack stack)
  * so that the index sorts in the desired direction.
  *
  * One key purpose of this routine is to discover how many scan keys
- * must be satisfied to continue the scan. It also attempts to eliminate
+ * must be satisfied to continue the scan.  It also attempts to eliminate
  * redundant keys and detect contradictory keys.  (If the index opfamily
  * provides incomplete sets of cross-type operators, we may fail to detect
  * redundant or contradictory keys, but we can survive that.)
@@ -207,7 +207,7 @@ _bt_freestack(BTStack stack)
  * that's the only one returned.  (So, we return either a single = key,
  * or one or two boundary-condition keys for each attr.)  However, if we
  * cannot compare two keys for lack of a suitable cross-type operator,
- * we cannot eliminate either. If there are two such keys of the same
+ * we cannot eliminate either.  If there are two such keys of the same
  * operator strategy, the second one is just pushed into the output array
  * without further processing here.  We may also emit both >/>= or both
  * </<= keys if we can't compare them.  The logic about required keys still
@@ -267,12 +267,12 @@ _bt_preprocess_keys(IndexScanDesc scan)
    {
        /*
         * We treat all btree operators as strict (even if they're not so
-        * marked in pg_proc).  This means that it is impossible for an
+        * marked in pg_proc).  This means that it is impossible for an
         * operator condition with a NULL comparison constant to succeed, and
         * we can reject it right away.
         *
         * However, we now also support "x IS NULL" clauses as search
-        * conditions, so in that case keep going.  The planner has not filled
+        * conditions, so in that case keep going.  The planner has not filled
         * in any particular strategy in this case, so set it to
         * BTEqualStrategyNumber --- we can treat IS NULL as an equality
         * operator for purposes of search strategy.
@@ -426,7 +426,7 @@ _bt_preprocess_keys(IndexScanDesc scan)
 
            /*
             * Emit the cleaned-up keys into the outkeys[] array, and then
-            * mark them if they are required.  They are required (possibly
+            * mark them if they are required.  They are required (possibly
             * only in one direction) if all attrs before this one had "=".
             */
            for (j = BTMaxStrategyNumber; --j >= 0;)
@@ -545,7 +545,7 @@ _bt_preprocess_keys(IndexScanDesc scan)
  * and amoplefttype/amoprighttype equal to the two argument datatypes.
  *
  * If the opfamily doesn't supply a complete set of cross-type operators we
- * may not be able to make the comparison. If we can make the comparison
+ * may not be able to make the comparison.  If we can make the comparison
  * we store the operator result in *result and return TRUE.  We return FALSE
  * if the comparison could not be made.
  *
@@ -686,7 +686,7 @@ _bt_mark_scankey_with_indoption(ScanKey skey, int16 *indoption)
  * Mark a scankey as "required to continue the scan".
  *
  * Depending on the operator type, the key may be required for both scan
- * directions or just one. Also, if the key is a row comparison header,
+ * directions or just one.  Also, if the key is a row comparison header,
  * we have to mark the appropriate subsidiary ScanKeys as required.  In
  * such cases, the first subsidiary key is required, but subsequent ones
  * are required only as long as they correspond to successive index columns
@@ -698,7 +698,7 @@ _bt_mark_scankey_with_indoption(ScanKey skey, int16 *indoption)
  * scribbling on a data structure belonging to the index AM's caller, not on
  * our private copy.  This should be OK because the marking will not change
  * from scan to scan within a query, and so we'd just re-mark the same way
- * anyway on a rescan. Something to keep an eye on though.
+ * anyway on a rescan.  Something to keep an eye on though.
  */
 static void
 _bt_mark_scankey_required(ScanKey skey)
@@ -877,7 +877,7 @@ _bt_checkkeys(IndexScanDesc scan,
                /*
                 * Since NULLs are sorted before non-NULLs, we know we have
                 * reached the lower limit of the range of values for this
-                * index attr.  On a backward scan, we can stop if this qual
+                * index attr.  On a backward scan, we can stop if this qual
                 * is one of the "must match" subset.  On a forward scan,
                 * however, we should keep going.
                 */
@@ -890,8 +890,8 @@ _bt_checkkeys(IndexScanDesc scan,
                /*
                 * Since NULLs are sorted after non-NULLs, we know we have
                 * reached the upper limit of the range of values for this
-                * index attr.  On a forward scan, we can stop if this qual is
-                * one of the "must match" subset.  On a backward scan,
+                * index attr.  On a forward scan, we can stop if this qual is
+                * one of the "must match" subset.  On a backward scan,
                 * however, we should keep going.
                 */
                if ((key->sk_flags & SK_BT_REQFWD) &&
@@ -981,7 +981,7 @@ _bt_check_rowcompare(ScanKey skey, IndexTuple tuple, TupleDesc tupdesc,
                 * Since NULLs are sorted before non-NULLs, we know we have
                 * reached the lower limit of the range of values for this
                 * index attr. On a backward scan, we can stop if this qual is
-                * one of the "must match" subset.  On a forward scan,
+                * one of the "must match" subset.  On a forward scan,
                 * however, we should keep going.
                 */
                if ((subkey->sk_flags & SK_BT_REQBKWD) &&
@@ -994,7 +994,7 @@ _bt_check_rowcompare(ScanKey skey, IndexTuple tuple, TupleDesc tupdesc,
                 * Since NULLs are sorted after non-NULLs, we know we have
                 * reached the upper limit of the range of values for this
                 * index attr. On a forward scan, we can stop if this qual is
-                * one of the "must match" subset.  On a backward scan,
+                * one of the "must match" subset.  On a backward scan,
                 * however, we should keep going.
                 */
                if ((subkey->sk_flags & SK_BT_REQFWD) &&
@@ -1012,7 +1012,7 @@ _bt_check_rowcompare(ScanKey skey, IndexTuple tuple, TupleDesc tupdesc,
        {
            /*
             * Unlike the simple-scankey case, this isn't a disallowed case.
-            * But it can never match.  If all the earlier row comparison
+            * But it can never match.  If all the earlier row comparison
             * columns are required for the scan direction, we can stop the
             * scan, because there can't be another tuple that will succeed.
             */
@@ -1076,7 +1076,7 @@ _bt_check_rowcompare(ScanKey skey, IndexTuple tuple, TupleDesc tupdesc,
        /*
         * Tuple fails this qual.  If it's a required qual for the current
         * scan direction, then we can conclude no further tuples will pass,
-        * either.  Note we have to look at the deciding column, not
+        * either.  Note we have to look at the deciding column, not
         * necessarily the first or last column of the row condition.
         */
        if ((subkey->sk_flags & SK_BT_REQFWD) &&
@@ -1102,7 +1102,7 @@ _bt_check_rowcompare(ScanKey skey, IndexTuple tuple, TupleDesc tupdesc,
  * is sufficient for setting LP_DEAD status (which is only a hint).
  *
  * We match items by heap TID before assuming they are the right ones to
- * delete. We cope with cases where items have moved right due to insertions.
+ * delete.  We cope with cases where items have moved right due to insertions.
  * If an item has moved off the current page due to a split, we'll fail to
  * find it and do nothing (this is not an error case --- we assume the item
  * will eventually get marked in a future indexscan).  Note that because we
@@ -1188,8 +1188,8 @@ _bt_killitems(IndexScanDesc scan, bool haveLock)
 /*
  * The following routines manage a shared-memory area in which we track
  * assignment of "vacuum cycle IDs" to currently-active btree vacuuming
- * operations. There is a single counter which increments each time we
- * start a vacuum to assign it a cycle ID. Since multiple vacuums could
+ * operations.  There is a single counter which increments each time we
+ * start a vacuum to assign it a cycle ID.  Since multiple vacuums could
  * be active concurrently, we have to track the cycle ID for each active
  * vacuum; this requires at most MaxBackends entries (usually far fewer).
  * We assume at most one vacuum can be active for a given index.
index d132d6bdee19358df6bc308236b18b00e0b56f2d..d1771e04241125a6927e8b35fa6e0441ea6a12a8 100644 (file)
@@ -126,7 +126,7 @@ forget_matching_deletion(RelFileNode node, BlockNumber delblk)
  * in correct itemno sequence, but physically the opposite order from the
  * original, because we insert them in the opposite of itemno order.  This
  * does not matter in any current btree code, but it's something to keep an
- * eye on. Is it worth changing just on general principles?  See also the
+ * eye on.  Is it worth changing just on general principles?  See also the
  * notes in btree_xlog_split().
  */
 static void
@@ -177,7 +177,7 @@ _bt_restore_meta(RelFileNode rnode, XLogRecPtr lsn,
    pageop->btpo_flags = BTP_META;
 
    /*
-    * Set pd_lower just past the end of the metadata.  This is not essential
+    * Set pd_lower just past the end of the metadata.  This is not essential
     * but it makes the page look compressible to xlog.c.
     */
    ((PageHeader) metapg)->pd_lower =
@@ -359,7 +359,7 @@ btree_xlog_split(bool onleft, bool isroot,
     * Reconstruct left (original) sibling if needed.  Note that this code
     * ensures that the items remaining on the left page are in the correct
     * item number order, but it does not reproduce the physical order they
-    * would have had.  Is this worth changing?  See also _bt_restore_page().
+    * would have had.  Is this worth changing?  See also _bt_restore_page().
     */
    if (!(record->xl_info & XLR_BKP_BLOCK_1))
    {
@@ -379,7 +379,7 @@ btree_xlog_split(bool onleft, bool isroot,
 
                /*
                 * Remove the items from the left page that were copied to the
-                * right page.  Also remove the old high key, if any. (We must
+                * right page.  Also remove the old high key, if any. (We must
                 * remove everything before trying to insert any items, else
                 * we risk not having enough space.)
                 */
index 8544725abb4da23756d026401165f3efd0296e67..0348c5155a9adbe801ed99824d2664aa5189c1dc 100644 (file)
  * log can be broken into relatively small, independent segments.
  *
  * XLOG interactions: this module generates an XLOG record whenever a new
- * CLOG page is initialized to zeroes. Other writes of CLOG come from
+ * CLOG page is initialized to zeroes.  Other writes of CLOG come from
  * recording of transaction commit or abort in xact.c, which generates its
  * own XLOG records for these events and will re-perform the status update
- * on redo; so we need make no additional XLOG entry here. For synchronous
+ * on redo; so we need make no additional XLOG entry here.  For synchronous
  * transaction commits, the XLOG is guaranteed flushed through the XLOG commit
  * record before we are called to log a commit, so the WAL rule "write xlog
  * before data" is satisfied automatically.  However, for async commits we
  * must track the latest LSN affecting each CLOG page, so that we can flush
- * XLOG that far and satisfy the WAL rule. We don't have to worry about this
+ * XLOG that far and satisfy the WAL rule.  We don't have to worry about this
  * for aborts (whether sync or async), since the post-crash assumption would
  * be that such transactions failed anyway.
  *
@@ -104,7 +104,7 @@ static void set_status_by_pages(int nsubxids, TransactionId *subxids,
  * in the tree of xid. In various cases nsubxids may be zero.
  *
  * lsn must be the WAL location of the commit record when recording an async
- * commit. For a synchronous commit it can be InvalidXLogRecPtr, since the
+ * commit.  For a synchronous commit it can be InvalidXLogRecPtr, since the
  * caller guarantees the commit record is already flushed in that case.  It
  * should be InvalidXLogRecPtr for abort cases, too.
  *
index 025219e0927ea818cf12a60a2994163a99f7778a..7462a4ed99b8d8188ccaa13984842f0a5713e106 100644 (file)
@@ -4,15 +4,15 @@
  *     PostgreSQL multi-transaction-log manager
  *
  * The pg_multixact manager is a pg_clog-like manager that stores an array
- * of TransactionIds for each MultiXactId. It is a fundamental part of the
- * shared-row-lock implementation. A share-locked tuple stores a
+ * of TransactionIds for each MultiXactId.  It is a fundamental part of the
+ * shared-row-lock implementation.  A share-locked tuple stores a
  * MultiXactId in its Xmax, and a transaction that needs to wait for the
  * tuple to be unlocked can sleep on the potentially-several TransactionIds
  * that compose the MultiXactId.
  *
  * We use two SLRU areas, one for storing the offsets at which the data
  * starts for each MultiXactId in the other one.  This trick allows us to
- * store variable length arrays of TransactionIds. (We could alternatively
+ * store variable length arrays of TransactionIds.  (We could alternatively
  * use one area containing counts and TransactionIds, with valid MultiXactId
  * values pointing at slots containing counts; but that way seems less robust
  * since it would get completely confused if someone inquired about a bogus
@@ -32,7 +32,7 @@
  *
  * Like clog.c, and unlike subtrans.c, we have to preserve state across
  * crashes and ensure that MXID and offset numbering increases monotonically
- * across a crash. We do this in the same way as it's done for transaction
+ * across a crash.  We do this in the same way as it's done for transaction
  * IDs: the WAL record is guaranteed to contain evidence of every MXID we
  * could need to worry about, and we just make sure that at the end of
  * replay, the next-MXID and next-offset counters are at least as large as
 
 
 /*
- * Defines for MultiXactOffset page sizes. A page is the same BLCKSZ as is
+ * Defines for MultiXactOffset page sizes.  A page is the same BLCKSZ as is
  * used everywhere else in Postgres.
  *
  * Note: because both MultiXactOffsets and TransactionIds are 32 bits and
  * wrap around at 0xFFFFFFFF, MultiXact page numbering also wraps around at
  * 0xFFFFFFFF/MULTIXACT_*_PER_PAGE, and segment numbering at
- * 0xFFFFFFFF/MULTIXACT_*_PER_PAGE/SLRU_SEGMENTS_PER_PAGE. We need take no
+ * 0xFFFFFFFF/MULTIXACT_*_PER_PAGE/SLRU_SEGMENTS_PER_PAGE.  We need take no
  * explicit notice of that fact in this module, except when comparing segment
  * and page numbers in TruncateMultiXact
  * (see MultiXact{Offset,Member}PagePrecedes).
@@ -100,7 +100,7 @@ static SlruCtlData MultiXactMemberCtlData;
 #define MultiXactMemberCtl (&MultiXactMemberCtlData)
 
 /*
- * MultiXact state shared across all backends. All this state is protected
+ * MultiXact state shared across all backends.  All this state is protected
  * by MultiXactGenLock.  (We also use MultiXactOffsetControlLock and
  * MultiXactMemberControlLock to guard accesses to the two sets of SLRU
  * buffers.  For concurrency's sake, we avoid holding more than one of these
@@ -343,7 +343,7 @@ MultiXactIdExpand(MultiXactId multi, TransactionId xid)
    /*
     * Determine which of the members of the MultiXactId are still running,
     * and use them to create a new one.  (Removing dead members is just an
-    * optimization, but a useful one.  Note we have the same race condition
+    * optimization, but a useful one.  Note we have the same race condition
     * here as above: j could be 0 at the end of the loop.)
     */
    newMembers = (TransactionId *)
@@ -408,7 +408,7 @@ MultiXactIdIsRunning(MultiXactId multi)
 
    /*
     * This could be made faster by having another entry point in procarray.c,
-    * walking the PGPROC array only once for all the members.  But in most
+    * walking the PGPROC array only once for all the members.  But in most
     * cases nmembers should be small enough that it doesn't much matter.
     */
    for (i = 0; i < nmembers; i++)
@@ -527,7 +527,7 @@ MultiXactIdSetOldestMember(void)
  * The value to set is the oldest of nextMXact and all the valid per-backend
  * OldestMemberMXactId[] entries.  Because of the locking we do, we can be
  * certain that no subsequent call to MultiXactIdSetOldestMember can set
- * an OldestMemberMXactId[] entry older than what we compute here. Therefore
+ * an OldestMemberMXactId[] entry older than what we compute here.  Therefore
  * there is no live transaction, now or later, that can be a member of any
  * MultiXactId older than the OldestVisibleMXactId we compute here.
  */
@@ -698,7 +698,7 @@ CreateMultiXactId(int nxids, TransactionId *xids)
     * heap_lock_tuple() to have put it there, and heap_lock_tuple() generates
     * an XLOG record that must follow ours.  The normal LSN interlock between
     * the data page and that XLOG record will ensure that our XLOG record
-    * reaches disk first.  If the SLRU members/offsets data reaches disk
+    * reaches disk first.  If the SLRU members/offsets data reaches disk
     * sooner than the XLOG record, we do not care because we'll overwrite it
     * with zeroes unless the XLOG record is there too; see notes at top of
     * this file.
@@ -805,7 +805,7 @@ RecordNewMultiXact(MultiXactId multi, MultiXactOffset offset,
  * GetNewMultiXactId
  *     Get the next MultiXactId.
  *
- * Also, reserve the needed amount of space in the "members" area. The
+ * Also, reserve the needed amount of space in the "members" area.  The
  * starting offset of the reserved space is returned in *offset.
  *
  * This may generate XLOG records for expansion of the offsets and/or members
@@ -870,7 +870,7 @@ GetNewMultiXactId(int nxids, MultiXactOffset *offset)
     * until after file extension has succeeded!
     *
     * We don't care about MultiXactId wraparound here; it will be handled by
-    * the next iteration.  But note that nextMXact may be InvalidMultiXactId
+    * the next iteration.  But note that nextMXact may be InvalidMultiXactId
     * after this routine exits, so anyone else looking at the variable must
     * be prepared to deal with that.  Similarly, nextOffset may be zero, but
     * we won't use that as the actual start offset of the next multixact.
@@ -934,7 +934,7 @@ GetMultiXactIdMembers(MultiXactId multi, TransactionId **xids)
     * SLRU data if we did try to examine it.
     *
     * Conversely, an ID >= nextMXact shouldn't ever be seen here; if it is
-    * seen, it implies undetected ID wraparound has occurred.  We just
+    * seen, it implies undetected ID wraparound has occurred.  We just
     * silently assume that such an ID is no longer running.
     *
     * Shared lock is enough here since we aren't modifying any global state.
@@ -950,7 +950,7 @@ GetMultiXactIdMembers(MultiXactId multi, TransactionId **xids)
 
    /*
     * Acquire the shared lock just long enough to grab the current counter
-    * values.  We may need both nextMXact and nextOffset; see below.
+    * values.  We may need both nextMXact and nextOffset; see below.
     */
    LWLockAcquire(MultiXactGenLock, LW_SHARED);
 
@@ -968,12 +968,12 @@ GetMultiXactIdMembers(MultiXactId multi, TransactionId **xids)
 
    /*
     * Find out the offset at which we need to start reading MultiXactMembers
-    * and the number of members in the multixact.  We determine the latter as
+    * and the number of members in the multixact.  We determine the latter as
     * the difference between this multixact's starting offset and the next
     * one's.  However, there are some corner cases to worry about:
     *
     * 1. This multixact may be the latest one created, in which case there is
-    * no next one to look at.  In this case the nextOffset value we just
+    * no next one to look at.  In this case the nextOffset value we just
     * saved is the correct endpoint.
     *
     * 2. The next multixact may still be in process of being filled in: that
@@ -984,11 +984,11 @@ GetMultiXactIdMembers(MultiXactId multi, TransactionId **xids)
     * (because we are careful to pre-zero offset pages). Because
     * GetNewMultiXactId will never return zero as the starting offset for a
     * multixact, when we read zero as the next multixact's offset, we know we
-    * have this case.  We sleep for a bit and try again.
+    * have this case.  We sleep for a bit and try again.
     *
     * 3. Because GetNewMultiXactId increments offset zero to offset one to
     * handle case #2, there is an ambiguity near the point of offset
-    * wraparound.  If we see next multixact's offset is one, is that our
+    * wraparound.  If we see next multixact's offset is one, is that our
     * multixact's actual endpoint, or did it end at zero with a subsequent
     * increment?  We handle this using the knowledge that if the zero'th
     * member slot wasn't filled, it'll contain zero, and zero isn't a valid
@@ -1401,7 +1401,7 @@ multixact_twophase_postabort(TransactionId xid, uint16 info,
 
 /*
  * Initialization of shared memory for MultiXact.  We use two SLRU areas,
- * thus double memory. Also, reserve space for the shared MultiXactState
+ * thus double memory.  Also, reserve space for the shared MultiXactState
  * struct and the per-backend MultiXactId arrays (two of those, too).
  */
 Size
@@ -1461,7 +1461,7 @@ MultiXactShmemInit(void)
 
 /*
  * This func must be called ONCE on system install.  It creates the initial
- * MultiXact segments. (The MultiXacts directories are assumed to have been
+ * MultiXact segments.  (The MultiXacts directories are assumed to have been
  * created by initdb, and MultiXactShmemInit must have been called already.)
  */
 void
@@ -1534,7 +1534,7 @@ ZeroMultiXactMemberPage(int pageno, bool writeXlog)
  * This must be called ONCE during postmaster or standalone-backend startup.
  *
  * StartupXLOG has already established nextMXact/nextOffset by calling
- * MultiXactSetNextMXact and/or MultiXactAdvanceNextMXact. Note that we
+ * MultiXactSetNextMXact and/or MultiXactAdvanceNextMXact.  Note that we
  * may already have replayed WAL data into the SLRU files.
  *
  * We don't need any locks here, really; the SLRU locks are taken
@@ -1558,7 +1558,7 @@ StartupMultiXact(void)
    MultiXactOffsetCtl->shared->latest_page_number = pageno;
 
    /*
-    * Zero out the remainder of the current offsets page.  See notes in
+    * Zero out the remainder of the current offsets page.  See notes in
     * StartupCLOG() for motivation.
     */
    entryno = MultiXactIdToOffsetEntry(multi);
@@ -1588,7 +1588,7 @@ StartupMultiXact(void)
    MultiXactMemberCtl->shared->latest_page_number = pageno;
 
    /*
-    * Zero out the remainder of the current members page.  See notes in
+    * Zero out the remainder of the current members page.  See notes in
     * StartupCLOG() for motivation.
     */
    entryno = MXOffsetToMemberEntry(offset);
@@ -1661,7 +1661,7 @@ CheckPointMultiXact(void)
 
    /*
     * Truncate the SLRU files.  This could be done at any time, but
-    * checkpoint seems a reasonable place for it.  There is one exception: if
+    * checkpoint seems a reasonable place for it.  There is one exception: if
     * we are called during xlog recovery, then shared->latest_page_number
     * isn't valid (because StartupMultiXact hasn't been called yet) and so
     * SimpleLruTruncate would get confused.  It seems best not to risk
@@ -1794,7 +1794,7 @@ ExtendMultiXactMember(MultiXactOffset offset, int nmembers)
  * Remove all MultiXactOffset and MultiXactMember segments before the oldest
  * ones still of interest.
  *
- * This is called only during checkpoints. We assume no more than one
+ * This is called only during checkpoints.  We assume no more than one
  * backend does this at a time.
  *
  * XXX do we have any issues with needing to checkpoint here?
@@ -1855,7 +1855,7 @@ TruncateMultiXact(void)
        return;
 
    /*
-    * We need to determine where to truncate MultiXactMember.  If we found a
+    * We need to determine where to truncate MultiXactMember.  If we found a
     * valid oldest MultiXactId, read its starting offset; otherwise we use
     * the nextOffset value we saved above.
     */
index 5bf91c8aa501ce39ecdfbc57f5d94151c0d3dd55..97e27247ec615150cbf0f5724363f8a6b85520ff 100644 (file)
@@ -15,7 +15,7 @@
  *
  * We use a control LWLock to protect the shared data structures, plus
  * per-buffer LWLocks that synchronize I/O for each buffer.  The control lock
- * must be held to examine or modify any shared state. A process that is
+ * must be held to examine or modify any shared state.  A process that is
  * reading in or writing out a page buffer does not hold the control lock,
  * only the per-buffer lock for the buffer it is working on.
  *
@@ -34,7 +34,7 @@
  * could have happened while we didn't have the lock).
  *
  * As with the regular buffer manager, it is possible for another process
- * to re-dirty a page that is currently being written out. This is handled
+ * to re-dirty a page that is currently being written out.  This is handled
  * by re-setting the page's page_dirty flag.
  *
  *
@@ -73,7 +73,7 @@
  * segment and page numbers in SimpleLruTruncate (see PagePrecedes()).
  *
  * Note: this file currently assumes that segment file names will be four
- * hex digits. This sets a lower bound on the segment size (64K transactions
+ * hex digits.  This sets a lower bound on the segment size (64K transactions
  * for 32-bit TransactionIds).
  */
 #define SLRU_PAGES_PER_SEGMENT 32
@@ -113,7 +113,7 @@ typedef struct SlruFlushData
  * page_lru_count entries to be "reset" to lower values than they should have,
  * in case a process is delayed while it executes this macro.  With care in
  * SlruSelectLRUPage(), this does little harm, and in any case the absolute
- * worst possible consequence is a nonoptimal choice of page to evict. The
+ * worst possible consequence is a nonoptimal choice of page to evict.  The
  * gain from allowing concurrent reads of SLRU pages seems worth it.
  */
 #define SlruRecentlyUsed(shared, slotno)   \
@@ -499,7 +499,7 @@ SimpleLruReadPage_ReadOnly(SlruCtl ctl, int pageno, TransactionId xid)
  *
  * NOTE: only one write attempt is made here.  Hence, it is possible that
  * the page is still dirty at exit (if someone else re-dirtied it during
- * the write). However, we *do* attempt a fresh write even if the page
+ * the write).  However, we *do* attempt a fresh write even if the page
  * is already being written; this is for checkpoints.
  *
  * Control lock must be held at entry, and will be held at exit.
@@ -597,7 +597,7 @@ SlruPhysicalReadPage(SlruCtl ctl, int pageno, int slotno)
     * In a crash-and-restart situation, it's possible for us to receive
     * commands to set the commit status of transactions whose bits are in
     * already-truncated segments of the commit log (see notes in
-    * SlruPhysicalWritePage).  Hence, if we are InRecovery, allow the case
+    * SlruPhysicalWritePage).  Hence, if we are InRecovery, allow the case
     * where the file doesn't exist, and return zeroes instead.
     */
    fd = BasicOpenFile(path, O_RDWR | PG_BINARY, S_IRUSR | S_IWUSR);
@@ -1128,7 +1128,7 @@ restart:;
        /*
         * Hmm, we have (or may have) I/O operations acting on the page, so
         * we've got to wait for them to finish and then start again. This is
-        * the same logic as in SlruSelectLRUPage.  (XXX if page is dirty,
+        * the same logic as in SlruSelectLRUPage.  (XXX if page is dirty,
         * wouldn't it be OK to just discard it without writing it?  For now,
         * keep the logic the same as it was.)
         */
index 9c74e995db08b00020698f724e64f0163835deec..5e5b638752943f43931b82ccf552f1403e64edfd 100644 (file)
@@ -5,7 +5,7 @@
  *
  * The pg_subtrans manager is a pg_clog-like manager that stores the parent
  * transaction Id for each transaction.  It is a fundamental part of the
- * nested transactions implementation. A main transaction has a parent
+ * nested transactions implementation.  A main transaction has a parent
  * of InvalidTransactionId, and each subtransaction has its immediate parent.
  * The tree can easily be walked from child to parent, but not in the
  * opposite direction.
@@ -186,7 +186,7 @@ SUBTRANSShmemInit(void)
  * must have been called already.)
  *
  * Note: it's not really necessary to create the initial segment now,
- * since slru.c would create it on first write anyway. But we may as well
+ * since slru.c would create it on first write anyway.  But we may as well
  * do it to be sure the directory is set up correctly.
  */
 void
index 43f7c54d1d91e8cf51dc1be52e087bff9c7ca285..85254d788ea4e788e3aa56e561d1f32c3d99d0dc 100644 (file)
@@ -149,7 +149,7 @@ TransactionIdDidCommit(TransactionId transactionId)
     * be a window just after database startup where we do not have complete
     * knowledge in pg_subtrans of the transactions after TransactionXmin.
     * StartupSUBTRANS() has ensured that any missing information will be
-    * zeroed.  Since this case should not happen under normal conditions, it
+    * zeroed.  Since this case should not happen under normal conditions, it
     * seems reasonable to emit a WARNING for it.
     */
    if (xidstatus == TRANSACTION_STATUS_SUB_COMMITTED)
@@ -305,7 +305,7 @@ TransactionIdPrecedes(TransactionId id1, TransactionId id2)
 {
    /*
     * If either ID is a permanent XID then we can just do unsigned
-    * comparison.  If both are normal, do a modulo-2^32 comparison.
+    * comparison.  If both are normal, do a modulo-2^32 comparison.
     */
    int32       diff;
 
index 3be0a38cb27c24f5013028cfd62f8fc6faa6345f..f7f1a81deb79864600b3504cde1b9e7826708bc6 100644 (file)
@@ -425,7 +425,7 @@ LockGXact(const char *gid, Oid user)
        /*
         * Note: it probably would be possible to allow committing from
         * another database; but at the moment NOTIFY is known not to work and
-        * there may be some other issues as well.  Hence disallow until
+        * there may be some other issues as well.  Hence disallow until
         * someone gets motivated to make it work.
         */
        if (MyDatabaseId != gxact->proc.databaseId)
@@ -983,7 +983,7 @@ EndPrepare(GlobalTransaction gxact)
     * out the correct state file CRC, we have an inconsistency: the xact is
     * prepared according to WAL but not according to our on-disk state. We
     * use a critical section to force a PANIC if we are unable to complete
-    * the write --- then, WAL replay should repair the inconsistency.  The
+    * the write --- then, WAL replay should repair the inconsistency.  The
     * odds of a PANIC actually occurring should be very tiny given that we
     * were able to write the bogus CRC above.
     *
@@ -1021,7 +1021,7 @@ EndPrepare(GlobalTransaction gxact)
                 errmsg("could not close two-phase state file: %m")));
 
    /*
-    * Mark the prepared transaction as valid.  As soon as xact.c marks MyProc
+    * Mark the prepared transaction as valid.  As soon as xact.c marks MyProc
     * as not running our XID (which it will do immediately after this
     * function returns), others can commit/rollback the xact.
     *
@@ -1241,7 +1241,7 @@ FinishPreparedTransaction(const char *gid, bool isCommit)
    /*
     * In case we fail while running the callbacks, mark the gxact invalid so
     * no one else will try to commit/rollback, and so it can be recycled
-    * properly later.  It is still locked by our XID so it won't go away yet.
+    * properly later.  It is still locked by our XID so it won't go away yet.
     *
     * (We assume it's safe to do this without taking TwoPhaseStateLock.)
     */
@@ -1435,7 +1435,7 @@ CheckPointTwoPhase(XLogRecPtr redo_horizon)
     *
     * This approach creates a race condition: someone else could delete a
     * GXACT between the time we release TwoPhaseStateLock and the time we try
-    * to open its state file.  We handle this by special-casing ENOENT
+    * to open its state file.  We handle this by special-casing ENOENT
     * failures: if we see that, we verify that the GXACT is no longer valid,
     * and if so ignore the failure.
     */
@@ -1515,7 +1515,7 @@ CheckPointTwoPhase(XLogRecPtr redo_horizon)
  *
  * We throw away any prepared xacts with main XID beyond nextXid --- if any
  * are present, it suggests that the DBA has done a PITR recovery to an
- * earlier point in time without cleaning out pg_twophase. We dare not
+ * earlier point in time without cleaning out pg_twophase.  We dare not
  * try to recover such prepared xacts since they likely depend on database
  * state that doesn't exist now.
  *
index e3895ba8c3aa9ed2885bd9b76b55aa0b33c6f349..c91d4bb294ce78fde7756cb8c22f18831e919162 100644 (file)
@@ -114,20 +114,20 @@ GetNewTransactionId(bool isSubXact)
    /*
     * Now advance the nextXid counter.  This must not happen until after we
     * have successfully completed ExtendCLOG() --- if that routine fails, we
-    * want the next incoming transaction to try it again.  We cannot assign
+    * want the next incoming transaction to try it again.  We cannot assign
     * more XIDs until there is CLOG space for them.
     */
    TransactionIdAdvance(ShmemVariableCache->nextXid);
 
    /*
     * We must store the new XID into the shared ProcArray before releasing
-    * XidGenLock.  This ensures that every active XID older than
+    * XidGenLock.  This ensures that every active XID older than
     * latestCompletedXid is present in the ProcArray, which is essential for
     * correct OldestXmin tracking; see src/backend/access/transam/README.
     *
     * XXX by storing xid into MyProc without acquiring ProcArrayLock, we are
     * relying on fetch/store of an xid to be atomic, else other backends
-    * might see a partially-set xid here.  But holding both locks at once
+    * might see a partially-set xid here.  But holding both locks at once
     * would be a nasty concurrency hit.  So for now, assume atomicity.
     *
     * Note that readers of PGPROC xid fields should be careful to fetch the
@@ -238,7 +238,7 @@ SetTransactionIdLimit(TransactionId oldest_datfrozenxid,
 
    /*
     * We'll start complaining loudly when we get within 10M transactions of
-    * the stop point.  This is kind of arbitrary, but if you let your gas
+    * the stop point.  This is kind of arbitrary, but if you let your gas
     * gauge get down to 1% of full, would you be looking for the next gas
     * station?  We need to be fairly liberal about this number because there
     * are lots of scenarios where most transactions are done by automatic
index 84917169320439582e26dacecb6a4c50aca2635c..aaa96e29a098cdc42f966ed988620c2b12a81218 100644 (file)
@@ -478,7 +478,7 @@ GetCurrentSubTransactionId(void)
  *
  * "used" must be TRUE if the caller intends to use the command ID to mark
  * inserted/updated/deleted tuples.  FALSE means the ID is being fetched
- * for read-only purposes (ie, as a snapshot validity cutoff). See
+ * for read-only purposes (ie, as a snapshot validity cutoff).  See
  * CommandCounterIncrement() for discussion.
  */
 CommandId
@@ -565,7 +565,7 @@ TransactionIdIsCurrentTransactionId(TransactionId xid)
 
    /*
     * We always say that BootstrapTransactionId is "not my transaction ID"
-    * even when it is (ie, during bootstrap).  Along with the fact that
+    * even when it is (ie, during bootstrap).  Along with the fact that
     * transam.c always treats BootstrapTransactionId as already committed,
     * this causes the tqual.c routines to see all tuples as committed, which
     * is what we need during bootstrap.  (Bootstrap mode only inserts tuples,
@@ -706,7 +706,7 @@ AtStart_Memory(void)
    /*
     * If this is the first time through, create a private context for
     * AbortTransaction to work in.  By reserving some space now, we can
-    * insulate AbortTransaction from out-of-memory scenarios.  Like
+    * insulate AbortTransaction from out-of-memory scenarios.  Like
     * ErrorContext, we set it up with slow growth rate and a nonzero minimum
     * size, so that space will be reserved immediately.
     */
@@ -809,7 +809,7 @@ AtSubStart_ResourceOwner(void)
    Assert(s->parent != NULL);
 
    /*
-    * Create a resource owner for the subtransaction.  We make it a child of
+    * Create a resource owner for the subtransaction.  We make it a child of
     * the immediate parent's resource owner.
     */
    s->curTransactionOwner =
@@ -829,7 +829,7 @@ AtSubStart_ResourceOwner(void)
  * RecordTransactionCommit
  *
  * Returns latest XID among xact and its children, or InvalidTransactionId
- * if the xact has no XID. (We compute that here just because it's easier.)
+ * if the xact has no XID.  (We compute that here just because it's easier.)
  *
  * This is exported only to support an ugly hack in VACUUM FULL.
  */
@@ -869,7 +869,7 @@ RecordTransactionCommit(void)
 
        /*
         * If we didn't create XLOG entries, we're done here; otherwise we
-        * should flush those entries the same as a commit record.  (An
+        * should flush those entries the same as a commit record.  (An
         * example of a possible record that wouldn't cause an XID to be
         * assigned is a sequence advance record due to nextval() --- we want
         * to flush that to disk before reporting commit.)
@@ -890,7 +890,7 @@ RecordTransactionCommit(void)
        BufmgrCommit();
 
        /*
-        * Mark ourselves as within our "commit critical section".  This
+        * Mark ourselves as within our "commit critical section".  This
         * forces any concurrent checkpoint to wait until we've updated
         * pg_clog.  Without this, it is possible for the checkpoint to set
         * REDO after the XLOG record but fail to flush the pg_clog update to
@@ -898,7 +898,7 @@ RecordTransactionCommit(void)
         * crashes a little later.
         *
         * Note: we could, but don't bother to, set this flag in
-        * RecordTransactionAbort.  That's because loss of a transaction abort
+        * RecordTransactionAbort.  That's because loss of a transaction abort
         * is noncritical; the presumption would be that it aborted, anyway.
         *
         * It's safe to change the inCommit flag of our own backend without
@@ -943,7 +943,7 @@ RecordTransactionCommit(void)
     * Check if we want to commit asynchronously.  If the user has set
     * synchronous_commit = off, and we're not doing cleanup of any non-temp
     * rels nor committing any command that wanted to force sync commit, then
-    * we can defer flushing XLOG.  (We must not allow asynchronous commit if
+    * we can defer flushing XLOG.  (We must not allow asynchronous commit if
     * there are any non-temp tables to be deleted, because we might delete
     * the files before the COMMIT record is flushed to disk.  We do allow
     * asynchronous commit if all to-be-deleted tables are temporary though,
@@ -1178,7 +1178,7 @@ AtSubCommit_childXids(void)
  * RecordTransactionAbort
  *
  * Returns latest XID among xact and its children, or InvalidTransactionId
- * if the xact has no XID. (We compute that here just because it's easier.)
+ * if the xact has no XID.  (We compute that here just because it's easier.)
  */
 static TransactionId
 RecordTransactionAbort(bool isSubXact)
@@ -1195,7 +1195,7 @@ RecordTransactionAbort(bool isSubXact)
 
    /*
     * If we haven't been assigned an XID, nobody will care whether we aborted
-    * or not.  Hence, we're done in that case.  It does not matter if we have
+    * or not.  Hence, we're done in that case.  It does not matter if we have
     * rels to delete (note that this routine is not responsible for actually
     * deleting 'em).  We cannot have any child XIDs, either.
     */
@@ -1211,7 +1211,7 @@ RecordTransactionAbort(bool isSubXact)
     * We have a valid XID, so we should write an ABORT record for it.
     *
     * We do not flush XLOG to disk here, since the default assumption after a
-    * crash would be that we aborted, anyway.  For the same reason, we don't
+    * crash would be that we aborted, anyway.  For the same reason, we don't
     * need to worry about interlocking against checkpoint start.
     */
 
@@ -1367,7 +1367,7 @@ AtSubAbort_childXids(void)
 
    /*
     * We keep the child-XID arrays in TopTransactionContext (see
-    * AtSubCommit_childXids).  This means we'd better free the array
+    * AtSubCommit_childXids).  This means we'd better free the array
     * explicitly at abort to avoid leakage.
     */
    if (s->childXids != NULL)
@@ -1517,7 +1517,7 @@ StartTransaction(void)
    VirtualXactLockTableInsert(vxid);
 
    /*
-    * Advertise it in the proc array.  We assume assignment of
+    * Advertise it in the proc array.  We assume assignment of
     * LocalTransactionID is atomic, and the backendId should be set already.
     */
    Assert(MyProc->backendId == vxid.backendId);
@@ -1905,7 +1905,7 @@ PrepareTransaction(void)
    XactLastRecEnd.xrecoff = 0;
 
    /*
-    * Let others know about no transaction in progress by me.  This has to be
+    * Let others know about no transaction in progress by me.  This has to be
     * done *after* the prepared transaction has been marked valid, else
     * someone may think it is unlocked and recyclable.
     */
@@ -1914,7 +1914,7 @@ PrepareTransaction(void)
    /*
     * This is all post-transaction cleanup.  Note that if an error is raised
     * here, it's too late to abort the transaction.  This should be just
-    * noncritical resource releasing.  See notes in CommitTransaction.
+    * noncritical resource releasing.  See notes in CommitTransaction.
     */
 
    CallXactCallbacks(XACT_EVENT_PREPARE);
@@ -2078,7 +2078,7 @@ AbortTransaction(void)
    ProcArrayEndTransaction(MyProc, latestXid);
 
    /*
-    * Post-abort cleanup.  See notes in CommitTransaction() concerning
+    * Post-abort cleanup.  See notes in CommitTransaction() concerning
     * ordering.  We can skip all of it if the transaction failed before
     * creating a resource owner.
     */
@@ -2311,7 +2311,7 @@ CommitTransactionCommand(void)
 
            /*
             * Here we were in a perfectly good transaction block but the user
-            * told us to ROLLBACK anyway.  We have to abort the transaction
+            * told us to ROLLBACK anyway.  We have to abort the transaction
             * and then clean up.
             */
        case TBLOCK_ABORT_PENDING:
@@ -2331,7 +2331,7 @@ CommitTransactionCommand(void)
 
            /*
             * We were just issued a SAVEPOINT inside a transaction block.
-            * Start a subtransaction.  (DefineSavepoint already did
+            * Start a subtransaction.  (DefineSavepoint already did
             * PushTransaction, so as to have someplace to put the SUBBEGIN
             * state.)
             */
@@ -2517,7 +2517,7 @@ AbortCurrentTransaction(void)
            break;
 
            /*
-            * Here, we failed while trying to COMMIT.  Clean up the
+            * Here, we failed while trying to COMMIT.  Clean up the
             * transaction and return to idle state (we do not want to stay in
             * the transaction).
             */
@@ -2579,7 +2579,7 @@ AbortCurrentTransaction(void)
 
            /*
             * If we failed while trying to create a subtransaction, clean up
-            * the broken subtransaction and abort the parent.  The same
+            * the broken subtransaction and abort the parent.  The same
             * applies if we get a failure while ending a subtransaction.
             */
        case TBLOCK_SUBBEGIN:
@@ -3108,7 +3108,7 @@ UserAbortTransactionBlock(void)
            break;
 
            /*
-            * We are inside a subtransaction.  Mark everything up to top
+            * We are inside a subtransaction.  Mark everything up to top
             * level as exitable.
             */
        case TBLOCK_SUBINPROGRESS:
@@ -3240,7 +3240,7 @@ ReleaseSavepoint(List *options)
            break;
 
            /*
-            * We are in a non-aborted subtransaction.  This is the only valid
+            * We are in a non-aborted subtransaction.  This is the only valid
             * case.
             */
        case TBLOCK_SUBINPROGRESS:
@@ -3296,7 +3296,7 @@ ReleaseSavepoint(List *options)
 
    /*
     * Mark "commit pending" all subtransactions up to the target
-    * subtransaction.  The actual commits will happen when control gets to
+    * subtransaction.  The actual commits will happen when control gets to
     * CommitTransactionCommand.
     */
    xact = CurrentTransactionState;
@@ -3394,7 +3394,7 @@ RollbackToSavepoint(List *options)
 
    /*
     * Mark "abort pending" all subtransactions up to the target
-    * subtransaction.  The actual aborts will happen when control gets to
+    * subtransaction.  The actual aborts will happen when control gets to
     * CommitTransactionCommand.
     */
    xact = CurrentTransactionState;
@@ -3793,7 +3793,7 @@ CommitSubTransaction(void)
    CommandCounterIncrement();
 
    /*
-    * Prior to 8.4 we marked subcommit in clog at this point.  We now only
+    * Prior to 8.4 we marked subcommit in clog at this point.  We now only
     * perform that step, if required, as part of the atomic update of the
     * whole transaction tree at top level commit or abort.
     */
@@ -4232,7 +4232,7 @@ TransStateAsString(TransState state)
 /*
  * xactGetCommittedChildren
  *
- * Gets the list of committed children of the current transaction. The return
+ * Gets the list of committed children of the current transaction.  The return
  * value is the number of child transactions.  *ptr is set to point to an
  * array of TransactionIds.  The array is allocated in TopTransactionContext;
  * the caller should *not* pfree() it (this is a change from pre-8.4 code!).
index 2a999236875acc028a935b065a0980bff1d9c1f3..c3e37c00e1222245da659e2faa7ca8624ce0e3b4 100644 (file)
@@ -82,7 +82,7 @@ bool      XLOG_DEBUG = false;
  * future XLOG segment as long as there aren't already XLOGfileslop future
  * segments; else we'll delete it.  This could be made a separate GUC
  * variable, but at present I think it's sufficient to hardwire it as
- * 2*CheckPointSegments+1. Under normal conditions, a checkpoint will free
+ * 2*CheckPointSegments+1.  Under normal conditions, a checkpoint will free
  * no more than 2*CheckPointSegments log segments, and we want to recycle all
  * of them; the +1 allows boundary cases to happen without wasting a
  * delete/create-segment cycle.
@@ -185,7 +185,7 @@ static bool recoveryStopAfter;
  *
  * expectedTLIs: an integer list of recoveryTargetTLI and the TLIs of
  * its known parents, newest first (so recoveryTargetTLI is always the
- * first list member). Only these TLIs are expected to be seen in the WAL
+ * first list member).  Only these TLIs are expected to be seen in the WAL
  * segments we read, and indeed only these TLIs will be considered as
  * candidate WAL files to open at all.
  *
@@ -213,9 +213,9 @@ XLogRecPtr  XactLastRecEnd = {0, 0};
 /*
  * RedoRecPtr is this backend's local copy of the REDO record pointer
  * (which is almost but not quite the same as a pointer to the most recent
- * CHECKPOINT record). We update this from the shared-memory copy,
+ * CHECKPOINT record).  We update this from the shared-memory copy,
  * XLogCtl->Insert.RedoRecPtr, whenever we can safely do so (ie, when we
- * hold the Insert lock).  See XLogInsert for details. We are also allowed
+ * hold the Insert lock).  See XLogInsert for details.  We are also allowed
  * to update from XLogCtl->Insert.RedoRecPtr if we hold the info_lck;
  * see GetRedoRecPtr.  A freshly spawned backend obtains the value during
  * InitXLOGAccess.
@@ -247,7 +247,7 @@ static XLogRecPtr RedoRecPtr;
  * without needing to grab info_lck as well.
  *
  * XLogCtl->Insert.LogwrtResult may lag behind the reality of the other two,
- * but is updated when convenient. Again, it exists for the convenience of
+ * but is updated when convenient.  Again, it exists for the convenience of
  * code that is already holding WALInsertLock but not the other locks.
  *
  * The unshared LogwrtResult may lag behind any or all of these, and again
@@ -1730,7 +1730,7 @@ XLogWrite(XLogwrtRqst WriteRqst, bool flexible, bool xlog_switch)
    {
        /*
         * Could get here without iterating above loop, in which case we might
-        * have no open file or the wrong one.  However, we do not need to
+        * have no open file or the wrong one.  However, we do not need to
         * fsync more than one file.
         */
        if (sync_method != SYNC_METHOD_OPEN &&
@@ -1994,9 +1994,9 @@ XLogFlush(XLogRecPtr record)
  * We normally flush only completed blocks; but if there is nothing to do on
  * that basis, we check for unflushed async commits in the current incomplete
  * block, and flush through the latest one of those.  Thus, if async commits
- * are not being used, we will flush complete blocks only. We can guarantee
+ * are not being used, we will flush complete blocks only.  We can guarantee
  * that async commits reach disk after at most three cycles; normally only
- * one or two. (We allow XLogWrite to write "flexibly", meaning it can stop
+ * one or two.  (We allow XLogWrite to write "flexibly", meaning it can stop
  * at the end of the buffer ring; this makes a difference only with very high
  * load or long wal_writer_delay, but imposes one extra cycle for the worst
  * case for async commits.)
@@ -2147,7 +2147,7 @@ XLogNeedsFlush(XLogRecPtr record)
  * log, seg: identify segment to be created/opened.
  *
  * *use_existent: if TRUE, OK to use a pre-existing file (else, any
- * pre-existing file will be deleted). On return, TRUE if a pre-existing
+ * pre-existing file will be deleted).  On return, TRUE if a pre-existing
  * file was used.
  *
  * use_lock: if TRUE, acquire ControlFileLock while moving file into
@@ -2217,11 +2217,11 @@ XLogFileInit(uint32 log, uint32 seg,
                 errmsg("could not create file \"%s\": %m", tmppath)));
 
    /*
-    * Zero-fill the file.  We have to do this the hard way to ensure that all
+    * Zero-fill the file.  We have to do this the hard way to ensure that all
     * the file space has really been allocated --- on platforms that allow
     * "holes" in files, just seeking to the end doesn't allocate intermediate
     * space.  This way, we know that we have all the space and (after the
-    * fsync below) that all the indirect blocks are down on disk.  Therefore,
+    * fsync below) that all the indirect blocks are down on disk.  Therefore,
     * fdatasync(2) or O_DSYNC will be sufficient to sync future writes to the
     * log file.
     *
@@ -2309,7 +2309,7 @@ XLogFileInit(uint32 log, uint32 seg,
  *     a different timeline)
  *
  * Currently this is only used during recovery, and so there are no locking
- * considerations. But we should be just as tense as XLogFileInit to avoid
+ * considerations.  But we should be just as tense as XLogFileInit to avoid
  * emplacing a bogus file.
  */
 static void
@@ -2544,7 +2544,7 @@ XLogFileRead(uint32 log, uint32 seg, int emode)
     * the timelines listed in expectedTLIs.
     *
     * We expect curFileTLI on entry to be the TLI of the preceding file in
-    * sequence, or 0 if there was no predecessor.  We do not allow curFileTLI
+    * sequence, or 0 if there was no predecessor.  We do not allow curFileTLI
     * to go backwards; this prevents us from picking up the wrong file when a
     * parent timeline extends to higher segment numbers than the child we
     * want to read.
@@ -2612,7 +2612,7 @@ XLogFileClose(void)
 
    /*
     * WAL segment files will not be re-read in normal operation, so we advise
-    * the OS to release any cached pages.  But do not do so if WAL archiving
+    * the OS to release any cached pages.  But do not do so if WAL archiving
     * is active, because archiver process could use the cache to read the WAL
     * segment.  Also, don't bother with it if we are using O_DIRECT, since
     * the kernel is presumably not caching in that case.
@@ -3064,7 +3064,7 @@ RemoveOldXlogFiles(uint32 log, uint32 seg, XLogRecPtr endptr)
    {
        /*
         * We ignore the timeline part of the XLOG segment identifiers in
-        * deciding whether a segment is still needed.  This ensures that we
+        * deciding whether a segment is still needed.  This ensures that we
         * won't prematurely remove a segment from a parent timeline. We could
         * probably be a little more proactive about removing segments of
         * non-parent timelines, but that would be a whole lot more
@@ -3260,7 +3260,7 @@ CleanupBackupHistory(void)
  * ignoring them as already applied, but that's not a huge drawback.
  *
  * If 'cleanup' is true, a cleanup lock is used when restoring blocks.
- * Otherwise, a normal exclusive lock is used. At the moment, that's just
+ * Otherwise, a normal exclusive lock is used.  At the moment, that's just
  * pro forma, because there can't be any regular backends in the system
  * during recovery.  The 'cleanup' argument applies to all backup blocks
  * in the WAL record, that suffices for now.
@@ -3778,7 +3778,7 @@ next_record_is_invalid:;
  * Check whether the xlog header of a page just read in looks valid.
  *
  * This is just a convenience subroutine to avoid duplicated code in
- * ReadRecord. It's not intended for use from anywhere else.
+ * ReadRecord.  It's not intended for use from anywhere else.
  */
 static bool
 ValidXLOGHeader(XLogPageHeader hdr, int emode)
@@ -3894,7 +3894,7 @@ ValidXLOGHeader(XLogPageHeader hdr, int emode)
  * Try to read a timeline's history file.
  *
  * If successful, return the list of component TLIs (the given TLI followed by
- * its ancestor TLIs). If we can't find the history file, assume that the
+ * its ancestor TLIs).  If we can't find the history file, assume that the
  * timeline has no parents, and return a list of just the specified timeline
  * ID.
  */
@@ -4059,7 +4059,7 @@ findNewestTimeLine(TimeLineID startTLI)
  * endTLI et al: ID of the last used WAL file, for annotation purposes
  *
  * Currently this is only used during recovery, and so there are no locking
- * considerations. But we should be just as tense as XLogFileInit to avoid
+ * considerations.  But we should be just as tense as XLogFileInit to avoid
  * emplacing a bogus file.
  */
 static void
@@ -4228,7 +4228,7 @@ writeTimeLineHistory(TimeLineID newTLI, TimeLineID parentTLI,
  * I/O routines for pg_control
  *
  * *ControlFile is a buffer in shared memory that holds an image of the
- * contents of pg_control. WriteControlFile() initializes pg_control
+ * contents of pg_control.  WriteControlFile() initializes pg_control
  * given a preloaded buffer, ReadControlFile() loads the buffer from
  * the pg_control file (during postmaster or standalone-backend startup),
  * and UpdateControlFile() rewrites pg_control after we modify xlog state.
@@ -4955,7 +4955,7 @@ readRecoveryCommandFile(void)
 
    /*
     * If user specified recovery_target_timeline, validate it or compute the
-    * "latest" value.  We can't do this until after we've gotten the restore
+    * "latest" value.  We can't do this until after we've gotten the restore
     * command and set InArchiveRecovery, because we need to fetch timeline
     * history files from the archive.
     */
@@ -5015,7 +5015,7 @@ exitArchiveRecovery(TimeLineID endTLI, uint32 endLogId, uint32 endLogSeg)
     * the existing xlog segment (if any) with the archival version.  This is
     * because whatever is in XLOGDIR is very possibly older than what we have
     * from the archives, since it could have come from restoring a PGDATA
-    * backup.  In any case, the archival version certainly is more
+    * backup.  In any case, the archival version certainly is more
     * descriptive of what our current database state is, because that is what
     * we replayed from.
     *
@@ -5725,8 +5725,8 @@ StartupXLOG(void)
    /*
     * Consider whether we need to assign a new timeline ID.
     *
-    * If we are doing an archive recovery, we always assign a new ID.  This
-    * handles a couple of issues.  If we stopped short of the end of WAL
+    * If we are doing an archive recovery, we always assign a new ID.  This
+    * handles a couple of issues.  If we stopped short of the end of WAL
     * during recovery, then we are clearly generating a new timeline and must
     * assign it a unique new ID.  Even if we ran to the end, modifying the
     * current last segment is problematic because it may result in trying to
@@ -5774,7 +5774,7 @@ StartupXLOG(void)
 
    /*
     * Tricky point here: readBuf contains the *last* block that the LastRec
-    * record spans, not the one it starts in.  The last block is indeed the
+    * record spans, not the one it starts in.  The last block is indeed the
     * one we want to use.
     */
    Assert(readOff == (XLogCtl->xlblocks[0].xrecoff - XLOG_BLCKSZ) % XLogSegSize);
@@ -5805,7 +5805,7 @@ StartupXLOG(void)
         * Write.curridx must point to the *next* page (see XLogWrite()).
         *
         * Note: it might seem we should do AdvanceXLInsertBuffer() here, but
-        * this is sufficient.  The first actual attempt to insert a log
+        * this is sufficient.  The first actual attempt to insert a log
         * record will advance the insert state.
         */
        XLogCtl->Write.curridx = NextBufIdx(0);
@@ -6460,7 +6460,7 @@ CreateCheckPoint(int flags)
    /*
     * If this isn't a shutdown or forced checkpoint, and we have not inserted
     * any XLOG records since the start of the last checkpoint, skip the
-    * checkpoint.  The idea here is to avoid inserting duplicate checkpoints
+    * checkpoint.  The idea here is to avoid inserting duplicate checkpoints
     * when the system is idle. That wastes log space, and more importantly it
     * exposes us to possible loss of both current and previous checkpoint
     * records if the machine crashes just as we're writing the update.
@@ -6726,9 +6726,9 @@ CreateCheckPoint(int flags)
 
    /*
     * Truncate pg_subtrans if possible.  We can throw away all data before
-    * the oldest XMIN of any running transaction.  No future transaction will
+    * the oldest XMIN of any running transaction.  No future transaction will
     * attempt to reference any pg_subtrans entry older than that (see Asserts
-    * in subtrans.c).  During recovery, though, we mustn't do this because
+    * in subtrans.c).  During recovery, though, we mustn't do this because
     * StartupSUBTRANS hasn't been called yet.
     */
    if (!RecoveryInProgress())
@@ -6956,7 +6956,7 @@ XLogPutNextOid(Oid nextOid)
     * We need not flush the NEXTOID record immediately, because any of the
     * just-allocated OIDs could only reach disk as part of a tuple insert or
     * update that would have its own XLOG record that must follow the NEXTOID
-    * record.  Therefore, the standard buffer LSN interlock applied to those
+    * record.  Therefore, the standard buffer LSN interlock applied to those
     * records will ensure no such OID reaches disk before the NEXTOID record
     * does.
     *
@@ -7323,7 +7323,7 @@ pg_start_backup(PG_FUNCTION_ARGS)
     * during an on-line backup even if not doing so at other times, because
     * it's quite possible for the backup dump to obtain a "torn" (partially
     * written) copy of a database page if it reads the page concurrently with
-    * our write to the same page.  This can be fixed as long as the first
+    * our write to the same page.  This can be fixed as long as the first
     * write to the page in the WAL sequence is a full-page write. Hence, we
     * turn on forcePageWrites and then force a CHECKPOINT, to ensure there
     * are no dirty pages in shared memory that might get dumped while the
@@ -7364,7 +7364,7 @@ pg_start_backup(PG_FUNCTION_ARGS)
    PG_ENSURE_ERROR_CLEANUP(pg_start_backup_callback, (Datum) 0);
    {
        /*
-        * Force a CHECKPOINT.  Aside from being necessary to prevent torn
+        * Force a CHECKPOINT.  Aside from being necessary to prevent torn
         * page problems, this guarantees that two successive backup runs will
         * have different checkpoint positions and hence different history
         * file names, even if nothing happened in between.
@@ -7829,7 +7829,7 @@ pg_xlogfile_name(PG_FUNCTION_ARGS)
  *
  * If we see a backup_label during recovery, we assume that we are recovering
  * from a backup dump file, and we therefore roll forward from the checkpoint
- * identified by the label file, NOT what pg_control says. This avoids the
+ * identified by the label file, NOT what pg_control says.  This avoids the
  * problem that pg_control might have been archived one or more checkpoints
  * later than the start of the dump, and so if we rely on it as the start
  * point, we will fail to restore a consistent database state.
@@ -8037,7 +8037,7 @@ startupproc_quickdie(SIGNAL_ARGS)
    on_exit_reset();
 
    /*
-    * Note we do exit(2) not exit(0).  This is to force the postmaster into a
+    * Note we do exit(2) not exit(0).  This is to force the postmaster into a
     * system reset cycle if some idiot DBA sends a manual SIGQUIT to a random
     * backend.  This is necessary precisely because we don't clean up our
     * shared memory state.  (The "dead man switch" mechanism in pmsignal.c
index 0f2942e0ba3045d933533e3f5db923bc60da7c59..0a124ed7624c1ec532a61f65baa5560acddddb3b 100644 (file)
@@ -94,7 +94,7 @@ static int    strtable_end = -1;  /* Tells us last occupied string space */
  * pg_type is created.
  *
  *     XXX several of these input/output functions do catalog scans
- *         (e.g., F_REGPROCIN scans pg_proc).  this obviously creates some
+ *         (e.g., F_REGPROCIN scans pg_proc).  this obviously creates some
  *         order dependencies in the catalog creation process.
  */
 struct typinfo
@@ -558,7 +558,7 @@ bootstrap_signals(void)
 }
 
 /*
- * Begin shutdown of an auxiliary process. This is approximately the equivalent
+ * Begin shutdown of an auxiliary process.  This is approximately the equivalent
  * of ShutdownPostgres() in postinit.c.  We can't run transactions in an
  * auxiliary process, so most of the work of AbortTransaction() is not needed,
  * but we do need to make sure we've released any LWLocks we are holding.
@@ -867,7 +867,7 @@ cleanup(void)
  * and not an OID at all, until the first reference to a type not known in
  * TypInfo[].  At that point it will read and cache pg_type in the Typ array,
  * and subsequently return a real OID (and set the global pointer Ap to
- * point at the found row in Typ). So caller must check whether Typ is
+ * point at the found row in Typ).  So caller must check whether Typ is
  * still NULL to determine what the return value is!
  * ----------------
  */
@@ -1118,7 +1118,7 @@ CompHash(char *str, int len)
  *     FindStr
  *
  *     This routine looks for the specified string in the hash
- *     table.  It returns a pointer to the hash node found,
+ *     table.  It returns a pointer to the hash node found,
  *     or NULL if the string is not in the table.
  * ----------------
  */
@@ -1213,9 +1213,9 @@ AddStr(char *str, int strlength, int mderef)
  *
  *     At bootstrap time, we define a bunch of indexes on system catalogs.
  *     We postpone actually building the indexes until just before we're
- *     finished with initialization, however.  This is because the indexes
+ *     finished with initialization, however.  This is because the indexes
  *     themselves have catalog entries, and those have to be included in the
- *     indexes on those catalogs.  Doing it in two phases is the simplest
+ *     indexes on those catalogs.  Doing it in two phases is the simplest
  *     way of making sure the indexes have the right contents at the end.
  */
 void
@@ -1228,7 +1228,7 @@ index_register(Oid heap,
 
    /*
     * XXX mao 10/31/92 -- don't gc index reldescs, associated info at
-    * bootstrap time.  we'll declare the indexes now, but want to create them
+    * bootstrap time.  we'll declare the indexes now, but want to create them
     * later.
     */
 
index 958172c8ef7e34f36a44fba8d8eb01bad57a5fef..b15a8304e6af9ee4b583db85326cd174beb2087f 100644 (file)
@@ -238,7 +238,7 @@ restrict_and_check_grant(bool is_grant, AclMode avail_goptions, bool all_privs,
 
    /*
     * Restrict the operation to what we can actually grant or revoke, and
-    * issue a warning if appropriate.  (For REVOKE this isn't quite what the
+    * issue a warning if appropriate.  (For REVOKE this isn't quite what the
     * spec says to do: the spec seems to want a warning only if no privilege
     * bits actually change in the ACL. In practice that behavior seems much
     * too noisy, as well as inconsistent with the GRANT case.)
@@ -457,7 +457,7 @@ ExecuteGrantStmt(GrantStmt *stmt)
 /*
  * ExecGrantStmt_oids
  *
- * "Internal" entrypoint for granting and revoking privileges. This is
+ * "Internal" entrypoint for granting and revoking privileges.  This is
  * exported for pg_shdepend.c to use in revoking privileges when dropping
  * a role.
  */
@@ -836,7 +836,7 @@ ExecGrant_Attribute(InternalGrant *istmt, Oid relOid, const char *relname,
     * If the updated ACL is empty, we can set attacl to null, and maybe even
     * avoid an update of the pg_attribute row.  This is worth testing because
     * we'll come through here multiple times for any relation-level REVOKE,
-    * even if there were never any column GRANTs.  Note we are assuming that
+    * even if there were never any column GRANTs.  Note we are assuming that
     * the "default" ACL state for columns is empty.
     */
    if (ACL_NUM(new_acl) > 0)
@@ -961,7 +961,7 @@ ExecGrant_Relation(InternalGrant *istmt)
                {
                    /*
                     * Mention the object name because the user needs to know
-                    * which operations succeeded.  This is required because
+                    * which operations succeeded.  This is required because
                     * WARNING allows the command to continue.
                     */
                    ereport(WARNING,
@@ -990,7 +990,7 @@ ExecGrant_Relation(InternalGrant *istmt)
 
        /*
         * Set up array in which we'll accumulate any column privilege bits
-        * that need modification.  The array is indexed such that entry [0]
+        * that need modification.  The array is indexed such that entry [0]
         * corresponds to FirstLowInvalidHeapAttributeNumber.
         */
        num_col_privileges = pg_class_tuple->relnatts - FirstLowInvalidHeapAttributeNumber + 1;
@@ -2311,7 +2311,7 @@ pg_aclmask(AclObjectKind objkind, Oid table_oid, AttrNumber attnum, Oid roleid,
  *
  * Note: this considers only privileges granted specifically on the column.
  * It is caller's responsibility to take relation-level privileges into account
- * as appropriate. (For the same reason, we have no special case for
+ * as appropriate.  (For the same reason, we have no special case for
  * superuser-ness here.)
  */
 AclMode
@@ -2429,12 +2429,12 @@ pg_class_aclmask(Oid table_oid, Oid roleid,
 
    /*
     * Deny anyone permission to update a system catalog unless
-    * pg_authid.rolcatupdate is set.   (This is to let superusers protect
+    * pg_authid.rolcatupdate is set.   (This is to let superusers protect
     * themselves from themselves.)  Also allow it if allowSystemTableMods.
     *
     * As of 7.4 we have some updatable system views; those shouldn't be
     * protected in this way.  Assume the view rules can take care of
-    * themselves.  ACL_USAGE is if we ever have system sequences.
+    * themselves.  ACL_USAGE is if we ever have system sequences.
     */
    if ((mask & (ACL_INSERT | ACL_UPDATE | ACL_DELETE | ACL_TRUNCATE | ACL_USAGE)) &&
        IsSystemClass(classForm) &&
@@ -3004,7 +3004,7 @@ pg_attribute_aclcheck_all(Oid table_oid, Oid roleid, AclMode mode,
    ReleaseSysCache(classTuple);
 
    /*
-    * Initialize result in case there are no non-dropped columns.  We want to
+    * Initialize result in case there are no non-dropped columns.  We want to
     * report failure in such cases for either value of 'how'.
     */
    result = ACLCHECK_NO_PRIV;
index 42371d513735af739ecc0bc2645d3ad559f79696..a4e9db8d928f5e37ba4894bf81cb7cae5218ea33 100644 (file)
@@ -283,7 +283,7 @@ IsReservedName(const char *name)
  *
  * Hard-wiring this list is pretty grotty, but we really need it so that
  * we can compute the locktag for a relation (and then lock it) without
- * having already read its pg_class entry. If we try to retrieve relisshared
+ * having already read its pg_class entry.  If we try to retrieve relisshared
  * from pg_class with no pre-existing lock, there is a race condition against
  * anyone who is concurrently committing a change to the pg_class entry:
  * since we read system catalog entries under SnapshotNow, it's possible
@@ -350,7 +350,7 @@ IsSharedRelation(Oid relationId)
  * Since the OID is not immediately inserted into the table, there is a
  * race condition here; but a problem could occur only if someone else
  * managed to cycle through 2^32 OIDs and generate the same OID before we
- * finish inserting our row.  This seems unlikely to be a problem. Note
+ * finish inserting our row.  This seems unlikely to be a problem.  Note
  * that if we had to *commit* the row to end the race condition, the risk
  * would be rather higher; therefore we use SnapshotDirty in the test,
  * so that we will see uncommitted rows.
index 3e13401ab822b244fd4f022d13bec68920d625f1..e1d2f9bfc661d5c470ba8714b1664a3d6987ce72 100644 (file)
@@ -207,7 +207,7 @@ performDeletion(const ObjectAddress *object,
    depRel = heap_open(DependRelationId, RowExclusiveLock);
 
    /*
-    * Acquire deletion lock on the target object.  (Ideally the caller has
+    * Acquire deletion lock on the target object.  (Ideally the caller has
     * done this already, but many places are sloppy about it.)
     */
    AcquireDeletionLock(object);
@@ -333,7 +333,7 @@ performMultipleDeletions(const ObjectAddresses *objects,
 
 /*
  * deleteWhatDependsOn: attempt to drop everything that depends on the
- * specified object, though not the object itself. Behavior is always
+ * specified object, though not the object itself.  Behavior is always
  * CASCADE.
  *
  * This is currently used only to clean out the contents of a schema
@@ -355,7 +355,7 @@ deleteWhatDependsOn(const ObjectAddress *object,
    depRel = heap_open(DependRelationId, RowExclusiveLock);
 
    /*
-    * Acquire deletion lock on the target object.  (Ideally the caller has
+    * Acquire deletion lock on the target object.  (Ideally the caller has
     * done this already, but many places are sloppy about it.)
     */
    AcquireDeletionLock(object);
@@ -407,7 +407,7 @@ deleteWhatDependsOn(const ObjectAddress *object,
  *
  * For every object that depends on the starting object, acquire a deletion
  * lock on the object, add it to targetObjects (if not already there),
- * and recursively find objects that depend on it. An object's dependencies
+ * and recursively find objects that depend on it.  An object's dependencies
  * will be placed into targetObjects before the object itself; this means
  * that the finished list's order represents a safe deletion order.
  *
@@ -460,7 +460,7 @@ findDependentObjects(const ObjectAddress *object,
     * will not break a loop at an internal dependency: if we enter the loop
     * at an "owned" object we will switch and start at the "owning" object
     * instead.  We could probably hack something up to avoid breaking at an
-    * auto dependency, too, if we had to.  However there are no known cases
+    * auto dependency, too, if we had to.  However there are no known cases
     * where that would be necessary.
     */
    for (stackptr = stack; stackptr; stackptr = stackptr->next)
@@ -546,7 +546,7 @@ findDependentObjects(const ObjectAddress *object,
 
                /*
                 * This object is part of the internal implementation of
-                * another object.  We have three cases:
+                * another object.  We have three cases:
                 *
                 * 1. At the outermost recursion level, disallow the DROP. (We
                 * just ereport here, rather than proceeding, since no other
@@ -748,7 +748,7 @@ findDependentObjects(const ObjectAddress *object,
    systable_endscan(scan);
 
    /*
-    * Finally, we can add the target object to targetObjects.  Be careful to
+    * Finally, we can add the target object to targetObjects.  Be careful to
     * include any flags that were passed back down to us from inner recursion
     * levels.
     */
@@ -803,7 +803,7 @@ reportDependentObjects(const ObjectAddresses *targetObjects,
    /*
     * We limit the number of dependencies reported to the client to
     * MAX_REPORTED_DEPS, since client software may not deal well with
-    * enormous error strings.  The server log always gets a full report.
+    * enormous error strings.  The server log always gets a full report.
     */
 #define MAX_REPORTED_DEPS 100
 
@@ -834,7 +834,7 @@ reportDependentObjects(const ObjectAddresses *targetObjects,
        if (extra->flags & (DEPFLAG_AUTO | DEPFLAG_INTERNAL))
        {
            /*
-            * auto-cascades are reported at DEBUG2, not msglevel.  We don't
+            * auto-cascades are reported at DEBUG2, not msglevel.  We don't
             * try to combine them with the regular message because the
             * results are too confusing when client_min_messages and
             * log_min_messages are different.
@@ -952,7 +952,7 @@ deleteOneObject(const ObjectAddress *object, Relation depRel)
 
    /*
     * First remove any pg_depend records that link from this object to
-    * others.  (Any records linking to this object should be gone already.)
+    * others.  (Any records linking to this object should be gone already.)
     *
     * When dropping a whole object (subId = 0), remove all pg_depend records
     * for its sub-objects too.
@@ -987,7 +987,7 @@ deleteOneObject(const ObjectAddress *object, Relation depRel)
    systable_endscan(scan);
 
    /*
-    * Delete shared dependency references related to this object.  Again, if
+    * Delete shared dependency references related to this object.  Again, if
     * subId = 0, remove records for sub-objects too.
     */
    deleteSharedDependencyRecordsFor(object->classId, object->objectId,
@@ -1218,7 +1218,7 @@ recordDependencyOnExpr(const ObjectAddress *depender,
  * recordDependencyOnSingleRelExpr - find expression dependencies
  *
  * As above, but only one relation is expected to be referenced (with
- * varno = 1 and varlevelsup = 0). Pass the relation OID instead of a
+ * varno = 1 and varlevelsup = 0).  Pass the relation OID instead of a
  * range table.  An additional frammish is that dependencies on that
  * relation (or its component columns) will be marked with 'self_behavior',
  * whereas 'behavior' is used for everything else.
@@ -1388,7 +1388,7 @@ find_expr_references_walker(Node *node,
 
        /*
         * If it's a regclass or similar literal referring to an existing
-        * object, add a reference to that object.  (Currently, only the
+        * object, add a reference to that object.  (Currently, only the
         * regclass and regconfig cases have any likely use, but we may as
         * well handle all the OID-alias datatypes consistently.)
         */
@@ -1915,7 +1915,7 @@ object_address_present_add_flags(const ObjectAddress *object,
            {
                /*
                 * We get here if we find a need to delete a column after
-                * having already decided to drop its whole table.  Obviously
+                * having already decided to drop its whole table.  Obviously
                 * we no longer need to drop the column.  But don't plaster
                 * its flags on the table.
                 */
index 70a32011f428c32cb93031683c57dff5a2a41df7..961763bf08caf09b25498b43809382ad3953bdd9 100644 (file)
@@ -21,7 +21,7 @@
  *   the old heap_create_with_catalog, amcreate, and amdestroy.
  *   those routines will soon call these routines using the function
  *   manager,
- *   just like the poorly named "NewXXX" routines do.  The
+ *   just like the poorly named "NewXXX" routines do.  The
  *   "New" routines are all going to die soon, once and for all!
  *     -cim 1/13/91
  *
@@ -177,7 +177,7 @@ SystemAttributeDefinition(AttrNumber attno, bool relhasoids)
 
 /*
  * If the given name is a system attribute name, return a Form_pg_attribute
- * pointer for a prototype definition. If not, return NULL.
+ * pointer for a prototype definition.  If not, return NULL.
  */
 Form_pg_attribute
 SystemAttributeByName(const char *attname, bool relhasoids)
@@ -513,7 +513,7 @@ CheckAttributeType(const char *attname, Oid atttypid,
  * Caller has already opened and locked pg_attribute.  new_attribute is the
  * attribute to insert (but we ignore its attacl, if indeed it has one).
  *
- * indstate is the index state for CatalogIndexInsert. It can be passed as
+ * indstate is the index state for CatalogIndexInsert.  It can be passed as
  * NULL, in which case we'll fetch the necessary info.  (Don't do this when
  * inserting multiple attributes, because it's a tad more expensive.)
  *
@@ -720,7 +720,7 @@ InsertPgClassTuple(Relation pg_class_desc,
    tup = heap_form_tuple(RelationGetDescr(pg_class_desc), values, nulls);
 
    /*
-    * The new tuple must have the oid already chosen for the rel.  Sure would
+    * The new tuple must have the oid already chosen for the rel.  Sure would
     * be embarrassing to do this sort of thing in polite company.
     */
    HeapTupleSetOid(tup, new_rel_oid);
@@ -969,7 +969,7 @@ heap_create_with_catalog(const char *relname,
    /*
     * Decide whether to create an array type over the relation's rowtype. We
     * do not create any array types for system catalogs (ie, those made
-    * during initdb).  We create array types for regular relations, views,
+    * during initdb).  We create array types for regular relations, views,
     * and composite types ... but not, eg, for toast tables or sequences.
     */
    if (IsUnderPostmaster && (relkind == RELKIND_RELATION ||
@@ -1121,8 +1121,8 @@ heap_create_with_catalog(const char *relname,
  *     RelationRemoveInheritance
  *
  * Formerly, this routine checked for child relations and aborted the
- * deletion if any were found. Now we rely on the dependency mechanism
- * to check for or delete child relations. By the time we get here,
+ * deletion if any were found.  Now we rely on the dependency mechanism
+ * to check for or delete child relations.  By the time we get here,
  * there are no children and we need only remove any pg_inherits rows
  * linking this relation to its parent(s).
  */
@@ -1368,7 +1368,7 @@ RemoveAttrDefault(Oid relid, AttrNumber attnum,
 /*
  *     RemoveAttrDefaultById
  *
- * Remove a pg_attrdef entry specified by OID. This is the guts of
+ * Remove a pg_attrdef entry specified by OID.  This is the guts of
  * attribute-default removal.  Note it should be called via performDeletion,
  * not directly.
  */
@@ -1729,7 +1729,7 @@ StoreConstraints(Relation rel, List *cooked_constraints)
 
    /*
     * Deparsing of constraint expressions will fail unless the just-created
-    * pg_attribute tuples for this relation are made visible.  So, bump the
+    * pg_attribute tuples for this relation are made visible.  So, bump the
     * command counter.  CAUTION: this will cause a relcache entry rebuild.
     */
    CommandCounterIncrement();
@@ -1779,7 +1779,7 @@ StoreConstraints(Relation rel, List *cooked_constraints)
  * the default and constraint expressions added to the relation.
  *
  * NB: caller should have opened rel with AccessExclusiveLock, and should
- * hold that lock till end of transaction. Also, we assume the caller has
+ * hold that lock till end of transaction.  Also, we assume the caller has
  * done a CommandCounterIncrement if necessary to make the relation's catalog
  * tuples visible.
  */
@@ -1921,7 +1921,7 @@ AddRelationNewConstraints(Relation rel,
            checknames = lappend(checknames, ccname);
 
            /*
-            * Check against pre-existing constraints.  If we are allowed to
+            * Check against pre-existing constraints.  If we are allowed to
             * merge with an existing constraint, there's no more to do here.
             * (We omit the duplicate constraint from the result, which is
             * what ATAddCheckConstraint wants.)
@@ -1937,7 +1937,7 @@ AddRelationNewConstraints(Relation rel,
             * column constraint and "tab_check" for a table constraint.  We
             * no longer have any info about the syntactic positioning of the
             * constraint phrase, so we approximate this by seeing whether the
-            * expression references more than one column.  (If the user
+            * expression references more than one column.  (If the user
             * played by the rules, the result is the same...)
             *
             * Note: pull_var_clause() doesn't descend into sublinks, but we
@@ -2317,7 +2317,7 @@ RemoveStatistics(Oid relid, AttrNumber attnum)
  * with the heap relation to zero tuples.
  *
  * The routine will truncate and then reconstruct the indexes on
- * the specified relation. Caller must hold exclusive lock on rel.
+ * the specified relation.  Caller must hold exclusive lock on rel.
  */
 static void
 RelationTruncateIndexes(Relation heapRelation)
@@ -2357,7 +2357,7 @@ RelationTruncateIndexes(Relation heapRelation)
  *  This routine deletes all data within all the specified relations.
  *
  * This is not transaction-safe!  There is another, transaction-safe
- * implementation in commands/tablecmds.c. We now use this only for
+ * implementation in commands/tablecmds.c.  We now use this only for
  * ON COMMIT truncation of temporary tables, where it doesn't matter.
  */
 void
@@ -2447,7 +2447,7 @@ heap_truncate_check_FKs(List *relations, bool tempTables)
        return;
 
    /*
-    * Otherwise, must scan pg_constraint.  We make one pass with all the
+    * Otherwise, must scan pg_constraint.  We make one pass with all the
     * relations considered; if this finds nothing, then all is well.
     */
    dependents = heap_truncate_find_FKs(oids);
@@ -2508,7 +2508,7 @@ heap_truncate_check_FKs(List *relations, bool tempTables)
  * behavior to change depending on chance locations of rows in pg_constraint.)
  *
  * Note: caller should already have appropriate lock on all rels mentioned
- * in relationIds. Since adding or dropping an FK requires exclusive lock
+ * in relationIds.  Since adding or dropping an FK requires exclusive lock
  * on both rels, this ensures that the answer will be stable.
  */
 List *
index 4d7918d5a039e5072a40d2a281a6ff7a9b8498c3..5f228bfd0088986c6089c403f207d01acf5ed6af 100644 (file)
@@ -251,7 +251,7 @@ ConstructTupleDescriptor(Relation heapRelation,
 
        /*
         * We do not yet have the correct relation OID for the index, so just
-        * set it invalid for now.  InitializeAttributeOids() will fix it
+        * set it invalid for now.  InitializeAttributeOids() will fix it
         * later.
         */
        to->attrelid = InvalidOid;
@@ -477,7 +477,7 @@ UpdateIndexRelation(Oid indexoid,
  * heapRelationId: OID of table to build index on
  * indexRelationName: what it say
  * indexRelationId: normally, pass InvalidOid to let this routine
- *     generate an OID for the index.  During bootstrap this may be
+ *     generate an OID for the index.  During bootstrap this may be
  *     nonzero to specify a preselected OID.
  * indexInfo: same info executor uses to insert into the index
  * accessMethodObjectId: OID of index AM to use
@@ -490,7 +490,7 @@ UpdateIndexRelation(Oid indexoid,
  * allow_system_table_mods: allow table to be a system catalog
  * skip_build: true to skip the index_build() step for the moment; caller
  *     must do it later (typically via reindex_index())
- * concurrent: if true, do not lock the table against writers. The index
+ * concurrent: if true, do not lock the table against writers.  The index
  *     will be marked "invalid" and the caller must take additional steps
  *     to fix it up.
  *
@@ -990,7 +990,7 @@ index_drop(Oid indexId)
  *
  * IndexInfo stores the information about the index that's needed by
  * FormIndexDatum, which is used for both index_build() and later insertion
- * of individual index tuples. Normally we build an IndexInfo for an index
+ * of individual index tuples.  Normally we build an IndexInfo for an index
  * just once per command, and then use it for (potentially) many tuples.
  * ----------------
  */
@@ -1045,7 +1045,7 @@ BuildIndexInfo(Relation index)
  * context must point to the heap tuple passed in.
  *
  * Notice we don't actually call index_form_tuple() here; we just prepare
- * its input arrays values[] and isnull[]. This is because the index AM
+ * its input arrays values[] and isnull[].  This is because the index AM
  * may wish to alter the data before storage.
  * ----------------
  */
@@ -1111,7 +1111,7 @@ FormIndexDatum(IndexInfo *indexInfo,
  * index_update_stats --- update pg_class entry after CREATE INDEX or REINDEX
  *
  * This routine updates the pg_class row of either an index or its parent
- * relation after CREATE INDEX or REINDEX. Its rather bizarre API is designed
+ * relation after CREATE INDEX or REINDEX.  Its rather bizarre API is designed
  * to ensure we can do all the necessary work in just one update.
  *
  * hasindex: set relhasindex to this value
@@ -1124,7 +1124,7 @@ FormIndexDatum(IndexInfo *indexInfo,
  *
  * NOTE: an important side-effect of this operation is that an SI invalidation
  * message is sent out to all backends --- including me --- causing relcache
- * entries to be flushed or updated with the new data. This must happen even
+ * entries to be flushed or updated with the new data.  This must happen even
  * if we find that no change is needed in the pg_class row.  When updating
  * a heap entry, this ensures that other backends find out about the new
  * index.  When updating an index, it's important because some index AMs
@@ -1162,13 +1162,13 @@ index_update_stats(Relation rel, bool hasindex, bool isprimary,
     * 4. Even with just a single CREATE INDEX, there's a risk factor because
     * someone else might be trying to open the rel while we commit, and this
     * creates a race condition as to whether he will see both or neither of
-    * the pg_class row versions as valid.  Again, a non-transactional update
+    * the pg_class row versions as valid.  Again, a non-transactional update
     * avoids the risk.  It is indeterminate which state of the row the other
     * process will see, but it doesn't matter (if he's only taking
     * AccessShareLock, then it's not critical that he see relhasindex true).
     *
     * It is safe to use a non-transactional update even though our
-    * transaction could still fail before committing.  Setting relhasindex
+    * transaction could still fail before committing.  Setting relhasindex
     * true is safe even if there are no indexes (VACUUM will eventually fix
     * it), and of course the relpages and reltuples counts are correct (or at
     * least more so than the old values) regardless.
@@ -1177,7 +1177,7 @@ index_update_stats(Relation rel, bool hasindex, bool isprimary,
    pg_class = heap_open(RelationRelationId, RowExclusiveLock);
 
    /*
-    * Make a copy of the tuple to update.  Normally we use the syscache, but
+    * Make a copy of the tuple to update.  Normally we use the syscache, but
     * we can't rely on that during bootstrap or while reindexing pg_class
     * itself.
     */
@@ -1298,7 +1298,7 @@ setNewRelfilenode(Relation relation, TransactionId freezeXid)
                                       NULL);
 
    /*
-    * Find the pg_class tuple for the given relation.  This is not used
+    * Find the pg_class tuple for the given relation.  This is not used
     * during bootstrap, so okay to use heap_update always.
     */
    pg_class = heap_open(RelationRelationId, RowExclusiveLock);
@@ -1351,7 +1351,7 @@ setNewRelfilenode(Relation relation, TransactionId freezeXid)
  * index_build - invoke access-method-specific index build procedure
  *
  * On entry, the index's catalog entries are valid, and its physical disk
- * file has been created but is empty. We call the AM-specific build
+ * file has been created but is empty.  We call the AM-specific build
  * procedure to fill in the index contents.  We then update the pg_class
  * entries of the index and heap relation as needed, using statistics
  * returned by ambuild as well as data passed by the caller.
@@ -1433,7 +1433,7 @@ index_build(Relation heapRelation,
     * Therefore, this code path can only be taken during non-concurrent
     * CREATE INDEX.  Thus the fact that heap_update will set the pg_index
     * tuple's xmin doesn't matter, because that tuple was created in the
-    * current transaction anyway.  That also means we don't need to worry
+    * current transaction anyway.  That also means we don't need to worry
     * about any concurrent readers of the tuple; no other transaction can see
     * it yet.
     */
@@ -1497,8 +1497,8 @@ index_build(Relation heapRelation,
  * build procedure does whatever cleanup is needed; in particular, it should
  * close the heap and index relations.
  *
- * The total count of heap tuples is returned. This is for updating pg_class
- * statistics. (It's annoying not to be able to do that here, but we can't
+ * The total count of heap tuples is returned.  This is for updating pg_class
+ * statistics.  (It's annoying not to be able to do that here, but we can't
  * do it until after the relation is closed.)  Note that the index AM itself
  * must keep track of the number of index tuples; we don't do so here because
  * the AM might reject some of the tuples for its own reasons, such as being
@@ -1539,7 +1539,7 @@ IndexBuildHeapScan(Relation heapRelation,
 
    /*
     * Need an EState for evaluation of index expressions and partial-index
-    * predicates.  Also a slot to hold the current tuple.
+    * predicates.  Also a slot to hold the current tuple.
     */
    estate = CreateExecutorState();
    econtext = GetPerTupleExprContext(estate);
@@ -1558,7 +1558,7 @@ IndexBuildHeapScan(Relation heapRelation,
     * SnapshotAny because we must retrieve all tuples and do our own time
     * qual checks (because we have to index RECENTLY_DEAD tuples). In a
     * concurrent build, we take a regular MVCC snapshot and index whatever's
-    * live according to that.  During bootstrap we just use SnapshotNow.
+    * live according to that.  During bootstrap we just use SnapshotNow.
     */
    if (IsBootstrapProcessingMode())
    {
@@ -1668,7 +1668,7 @@ IndexBuildHeapScan(Relation heapRelation,
                     * building it, and may need to see such tuples.)
                     *
                     * However, if it was HOT-updated then we must only index
-                    * the live tuple at the end of the HOT-chain.  Since this
+                    * the live tuple at the end of the HOT-chain.  Since this
                     * breaks semantics for pre-existing snapshots, mark the
                     * index as unusable for them.
                     */
@@ -1692,7 +1692,7 @@ IndexBuildHeapScan(Relation heapRelation,
                     * followed by CREATE INDEX within a transaction.)  An
                     * exception occurs when reindexing a system catalog,
                     * because we often release lock on system catalogs before
-                    * committing.  In that case we wait for the inserting
+                    * committing.  In that case we wait for the inserting
                     * transaction to finish and check again.  (We could do
                     * that on user tables too, but since the case is not
                     * expected it seems better to throw an error.)
@@ -1824,7 +1824,7 @@ IndexBuildHeapScan(Relation heapRelation,
 
        /*
         * You'd think we should go ahead and build the index tuple here, but
-        * some index AMs want to do further processing on the data first.  So
+        * some index AMs want to do further processing on the data first.  So
         * pass the values[] and isnull[] arrays, instead.
         */
 
@@ -1881,11 +1881,11 @@ IndexBuildHeapScan(Relation heapRelation,
  * We do a concurrent index build by first inserting the catalog entry for the
  * index via index_create(), marking it not indisready and not indisvalid.
  * Then we commit our transaction and start a new one, then we wait for all
- * transactions that could have been modifying the table to terminate. Now
+ * transactions that could have been modifying the table to terminate.  Now
  * we know that any subsequently-started transactions will see the index and
  * honor its constraints on HOT updates; so while existing HOT-chains might
  * be broken with respect to the index, no currently live tuple will have an
- * incompatible HOT update done to it. We now build the index normally via
+ * incompatible HOT update done to it.  We now build the index normally via
  * index_build(), while holding a weak lock that allows concurrent
  * insert/update/delete.  Also, we index only tuples that are valid
  * as of the start of the scan (see IndexBuildHeapScan), whereas a normal
@@ -1899,13 +1899,13 @@ IndexBuildHeapScan(Relation heapRelation,
  *
  * Next, we mark the index "indisready" (but still not "indisvalid") and
  * commit the second transaction and start a third.  Again we wait for all
- * transactions that could have been modifying the table to terminate. Now
+ * transactions that could have been modifying the table to terminate.  Now
  * we know that any subsequently-started transactions will see the index and
  * insert their new tuples into it.  We then take a new reference snapshot
  * which is passed to validate_index().  Any tuples that are valid according
  * to this snap, but are not in the index, must be added to the index.
  * (Any tuples committed live after the snap will be inserted into the
- * index by their originating transaction. Any tuples committed dead before
+ * index by their originating transaction.  Any tuples committed dead before
  * the snap need not be indexed, because we will wait out all transactions
  * that might care about them before we mark the index valid.)
  *
@@ -1914,7 +1914,7 @@ IndexBuildHeapScan(Relation heapRelation,
  * ever say "delete it".  (This should be faster than a plain indexscan;
  * also, not all index AMs support full-index indexscan.)  Then we sort the
  * TIDs, and finally scan the table doing a "merge join" against the TID list
- * to see which tuples are missing from the index. Thus we will ensure that
+ * to see which tuples are missing from the index.  Thus we will ensure that
  * all tuples valid according to the reference snapshot are in the index.
  *
  * Building a unique index this way is tricky: we might try to insert a
@@ -1930,7 +1930,7 @@ IndexBuildHeapScan(Relation heapRelation,
  * were alive at the time of the reference snapshot are gone; this is
  * necessary to be sure there are none left with a serializable snapshot
  * older than the reference (and hence possibly able to see tuples we did
- * not index). Then we mark the index "indisvalid" and commit.  Subsequent
+ * not index).  Then we mark the index "indisvalid" and commit.  Subsequent
  * transactions will be able to use it for queries.
  *
  * Doing two full table scans is a brute-force strategy.  We could try to be
@@ -1956,7 +1956,7 @@ validate_index(Oid heapId, Oid indexId, Snapshot snapshot)
    indexRelation = index_open(indexId, RowExclusiveLock);
 
    /*
-    * Fetch info needed for index_insert.  (You might think this should be
+    * Fetch info needed for index_insert.  (You might think this should be
     * passed in from DefineIndex, but its copy is long gone due to having
     * been built in a previous transaction.)
     */
@@ -2074,7 +2074,7 @@ validate_index_heapscan(Relation heapRelation,
 
    /*
     * Need an EState for evaluation of index expressions and partial-index
-    * predicates.  Also a slot to hold the current tuple.
+    * predicates.  Also a slot to hold the current tuple.
     */
    estate = CreateExecutorState();
    econtext = GetPerTupleExprContext(estate);
@@ -2123,7 +2123,7 @@ validate_index_heapscan(Relation heapRelation,
         * visit the live tuples in order by their offsets, but the root
         * offsets that we need to compare against the index contents might be
         * ordered differently.  So we might have to "look back" within the
-        * tuplesort output, but only within the current page.  We handle that
+        * tuplesort output, but only within the current page.  We handle that
         * by keeping a bool array in_index[] showing all the
         * already-passed-over tuplesort output TIDs of the current page. We
         * clear that array here, when advancing onto a new heap page.
@@ -2204,7 +2204,7 @@ validate_index_heapscan(Relation heapRelation,
 
            /*
             * For the current heap tuple, extract all the attributes we use
-            * in this index, and note which are null.  This also performs
+            * in this index, and note which are null.  This also performs
             * evaluation of any expressions needed.
             */
            FormIndexDatum(indexInfo,
@@ -2226,7 +2226,7 @@ validate_index_heapscan(Relation heapRelation,
             * for a uniqueness check on the whole HOT-chain.  That is, the
             * tuple we have here could be dead because it was already
             * HOT-updated, and if so the updating transaction will not have
-            * thought it should insert index entries.  The index AM will
+            * thought it should insert index entries.  The index AM will
             * check the whole HOT-chain and correctly detect a conflict if
             * there is one.
             */
@@ -2316,7 +2316,7 @@ index_set_state_flags(Oid indexId, IndexStateFlagsAction action)
 
 /*
  * IndexGetRelation: given an index's relation OID, get the OID of the
- * relation it is an index on. Uses the system cache.
+ * relation it is an index on.  Uses the system cache.
  */
 Oid
 IndexGetRelation(Oid indexId)
@@ -2355,7 +2355,7 @@ reindex_index(Oid indexId)
    bool        index_bad;
 
    /*
-    * Open and lock the parent heap relation.  ShareLock is sufficient since
+    * Open and lock the parent heap relation.  ShareLock is sufficient since
     * we only need to be sure no schema or data changes are going on.
     */
    heapId = IndexGetRelation(indexId);
@@ -2388,7 +2388,7 @@ reindex_index(Oid indexId)
     * it the normal transaction-safe way.
     *
     * Since inplace processing isn't crash-safe, we only allow it in a
-    * standalone backend.  (In the REINDEX TABLE and REINDEX DATABASE cases,
+    * standalone backend.  (In the REINDEX TABLE and REINDEX DATABASE cases,
     * the caller should have detected this.)
     */
    inplace = iRel->rd_rel->relisshared;
@@ -2517,7 +2517,7 @@ reindex_relation(Oid relid, bool toast_too)
    ListCell   *indexId;
 
    /*
-    * Open and lock the relation.  ShareLock is sufficient since we only need
+    * Open and lock the relation.  ShareLock is sufficient since we only need
     * to prevent schema and data changes in it.
     */
    rel = heap_open(relid, ShareLock);
@@ -2535,7 +2535,7 @@ reindex_relation(Oid relid, bool toast_too)
     * reindex_index will attempt to update the pg_class rows for the relation
     * and index.  If we are processing pg_class itself, we want to make sure
     * that the updates do not try to insert index entries into indexes we
-    * have not processed yet.  (When we are trying to recover from corrupted
+    * have not processed yet.  (When we are trying to recover from corrupted
     * indexes, that could easily cause a crash.) We can accomplish this
     * because CatalogUpdateIndexes will use the relcache's index list to know
     * which indexes to update. We just force the index list to be only the
@@ -2544,7 +2544,7 @@ reindex_relation(Oid relid, bool toast_too)
     * It is okay to not insert entries into the indexes we have not processed
     * yet because all of this is transaction-safe.  If we fail partway
     * through, the updated rows are dead and it doesn't matter whether they
-    * have index entries.  Also, a new pg_class index will be created with an
+    * have index entries.  Also, a new pg_class index will be created with an
     * entry for its own pg_class row because we do setNewRelfilenode() before
     * we do index_build().
     *
index b7079722312bb2eb2d10bacdb9eb5715011a26e5..00d5e0ca0be93c40a8faa16468d0060648b5ca99 100644 (file)
@@ -144,7 +144,7 @@ CatalogIndexInsert(CatalogIndexState indstate, HeapTuple heapTuple)
  * CatalogUpdateIndexes - do all the indexing work for a new catalog tuple
  *
  * This is a convenience routine for the common case where we only need
- * to insert or update a single tuple in a system catalog. Avoid using it for
+ * to insert or update a single tuple in a system catalog.  Avoid using it for
  * multiple tuples, since opening the indexes and building the index info
  * structures is moderately expensive.
  */
index 2b6d95807dc833be1cb89f2f7c6b1853e6f8c40b..01d2e3fce57d719583724e179044e470a8cc9b2d 100644 (file)
  * when we are obeying an override search path spec that says not to use the
  * temp namespace, or the temp namespace is included in the explicit list.)
  *
- * 2. The system catalog namespace is always searched. If the system
+ * 2. The system catalog namespace is always searched.  If the system
  * namespace is present in the explicit path then it will be searched in
  * the specified order; otherwise it will be searched after TEMP tables and
- * *before* the explicit list. (It might seem that the system namespace
+ * *before* the explicit list.  (It might seem that the system namespace
  * should be implicitly last, but this behavior appears to be required by
  * SQL99.  Also, this provides a way to search the system namespace first
  * without thereby making it the default creation target namespace.)
@@ -82,7 +82,7 @@
  * to refer to the current backend's temp namespace.  This is usually also
  * ignorable if the temp namespace hasn't been set up, but there's a special
  * case: if "pg_temp" appears first then it should be the default creation
- * target. We kluge this case a little bit so that the temp namespace isn't
+ * target.  We kluge this case a little bit so that the temp namespace isn't
  * set up until the first attempt to create something in it.  (The reason for
  * klugery is that we can't create the temp namespace outside a transaction,
  * but initial GUC processing of search_path happens outside a transaction.)
@@ -93,7 +93,7 @@
  * In bootstrap mode, the search path is set equal to "pg_catalog", so that
  * the system namespace is the only one searched or inserted into.
  * initdb is also careful to set search_path to "pg_catalog" for its
- * post-bootstrap standalone backend runs. Otherwise the default search
+ * post-bootstrap standalone backend runs.  Otherwise the default search
  * path is determined by GUC.  The factory default path contains the PUBLIC
  * namespace (if it exists), preceded by the user's personal namespace
  * (if one exists).
@@ -157,13 +157,13 @@ static List *overrideStack = NIL;
 /*
  * myTempNamespace is InvalidOid until and unless a TEMP namespace is set up
  * in a particular backend session (this happens when a CREATE TEMP TABLE
- * command is first executed). Thereafter it's the OID of the temp namespace.
+ * command is first executed).  Thereafter it's the OID of the temp namespace.
  *
  * myTempToastNamespace is the OID of the namespace for my temp tables' toast
- * tables. It is set when myTempNamespace is, and is InvalidOid before that.
+ * tables.  It is set when myTempNamespace is, and is InvalidOid before that.
  *
  * myTempNamespaceSubID shows whether we've created the TEMP namespace in the
- * current subtransaction. The flag propagates up the subtransaction tree,
+ * current subtransaction.  The flag propagates up the subtransaction tree,
  * so the main transaction will correctly recognize the flag if all
  * intermediate subtransactions commit.  When it is InvalidSubTransactionId,
  * we either haven't made the TEMP namespace yet, or have successfully
@@ -573,7 +573,7 @@ TypeIsVisible(Oid typid)
  * and the returned nvargs will always be zero.
  *
  * If expand_defaults is true, functions that could match after insertion of
- * default argument values will also be retrieved. In this case the returned
+ * default argument values will also be retrieved.  In this case the returned
  * structs could have nargs > passed-in nargs, and ndargs is set to the number
  * of additional args (which can be retrieved from the function's
  * proargdefaults entry).
@@ -791,7 +791,7 @@ FuncnameGetCandidates(List *names, int nargs,
            if (prevResult)
            {
                /*
-                * We have a match with a previous result.  Decide which one
+                * We have a match with a previous result.  Decide which one
                 * to keep, or mark it ambiguous if we can't decide.  The
                 * logic here is preference > 0 means prefer the old result,
                 * preference < 0 means prefer the new, preference = 0 means
@@ -1059,7 +1059,7 @@ OpernameGetOprid(List *names, Oid oprleft, Oid oprright)
  * identical entries in later namespaces.
  *
  * The returned items always have two args[] entries --- one or the other
- * will be InvalidOid for a prefix or postfix oprkind. nargs is 2, too.
+ * will be InvalidOid for a prefix or postfix oprkind.  nargs is 2, too.
  */
 FuncCandidateList
 OpernameGetCandidates(List *names, char oprkind)
@@ -1966,7 +1966,7 @@ TSConfigGetCfgid(List *names, bool failOK)
 /*
  * TSConfigIsVisible
  *     Determine whether a text search configuration (identified by OID)
- *     is visible in the current search path.  Visible means "would be found
+ *     is visible in the current search path.  Visible means "would be found
  *     by searching for the unqualified text search configuration name".
  */
 bool
@@ -2431,7 +2431,7 @@ GetTempNamespaceBackendId(Oid namespaceId)
 
 /*
  * GetTempToastNamespace - get the OID of my temporary-toast-table namespace,
- * which must already be assigned. (This is only used when creating a toast
+ * which must already be assigned.  (This is only used when creating a toast
  * table for a temp table, so we must have already done InitTempTableNamespace)
  */
 Oid
@@ -2523,7 +2523,7 @@ PushOverrideSearchPath(OverrideSearchPath *newpath)
        firstNS = linitial_oid(oidlist);
 
    /*
-    * Add any implicitly-searched namespaces to the list.  Note these go on
+    * Add any implicitly-searched namespaces to the list.  Note these go on
     * the front, not the back; also notice that we do not check USAGE
     * permissions for these.
     */
@@ -2764,7 +2764,7 @@ recomputeNamespacePath(void)
    }
 
    /*
-    * Remember the first member of the explicit list.  (Note: this is
+    * Remember the first member of the explicit list.  (Note: this is
     * nominally wrong if temp_missing, but we need it anyway to distinguish
     * explicit from implicit mention of pg_catalog.)
     */
@@ -2774,7 +2774,7 @@ recomputeNamespacePath(void)
        firstNS = linitial_oid(oidlist);
 
    /*
-    * Add any implicitly-searched namespaces to the list.  Note these go on
+    * Add any implicitly-searched namespaces to the list.  Note these go on
     * the front, not the back; also notice that we do not check USAGE
     * permissions for these.
     */
@@ -2829,7 +2829,7 @@ InitTempTableNamespace(void)
 
    /*
     * First, do permission check to see if we are authorized to make temp
-    * tables.  We use a nonstandard error message here since "databasename:
+    * tables.  We use a nonstandard error message here since "databasename:
     * permission denied" might be a tad cryptic.
     *
     * Note that ACL_CREATE_TEMP rights are rechecked in pg_namespace_aclmask;
@@ -3096,7 +3096,7 @@ assign_search_path(const char *newval, bool doit, GucSource source)
 
    /*
     * If we aren't inside a transaction, we cannot do database access so
-    * cannot verify the individual names.  Must accept the list on faith.
+    * cannot verify the individual names.  Must accept the list on faith.
     */
    if (source >= PGC_S_INTERACTIVE && IsTransactionState())
    {
@@ -3107,7 +3107,7 @@ assign_search_path(const char *newval, bool doit, GucSource source)
         * for USAGE rights, either; should we?
         *
         * When source == PGC_S_TEST, we are checking the argument of an ALTER
-        * DATABASE SET or ALTER USER SET command.  It could be that the
+        * DATABASE SET or ALTER USER SET command.  It could be that the
         * intended use of the search path is for some other database, so we
         * should not error out if it mentions schemas not present in the
         * current database.  We reduce the message to NOTICE instead.
@@ -3216,7 +3216,7 @@ fetch_search_path(bool includeImplicit)
    /*
     * If the temp namespace should be first, force it to exist.  This is so
     * that callers can trust the result to reflect the actual default
-    * creation namespace.  It's a bit bogus to do this here, since
+    * creation namespace.  It's a bit bogus to do this here, since
     * current_schema() is supposedly a stable function without side-effects,
     * but the alternatives seem worse.
     */
@@ -3238,7 +3238,7 @@ fetch_search_path(bool includeImplicit)
 
 /*
  * Fetch the active search path into a caller-allocated array of OIDs.
- * Returns the number of path entries. (If this is more than sarray_len,
+ * Returns the number of path entries.  (If this is more than sarray_len,
  * then the data didn't fit and is not all stored.)
  *
  * The returned list always includes the implicitly-prepended namespaces,
index 73b9519b31a98cc6ff08789de2e61028bfa9ab26..efc14cda3e3f609c801fda04718b4adf9d7d157e 100644 (file)
@@ -36,7 +36,7 @@
  * Create a constraint table entry.
  *
  * Subsidiary records (such as triggers or indexes to implement the
- * constraint) are *not* created here. But we do make dependency links
+ * constraint) are *not* created here.  But we do make dependency links
  * from the constraint to the things it depends on.
  */
 Oid
index 9867cc2c67959880b0fa848a4de557601694699a..fde2a8c24c4eb25b0c8d6002c5adb26763d6c6a2 100644 (file)
@@ -47,7 +47,7 @@ recordDependencyOn(const ObjectAddress *depender,
 
 /*
  * Record multiple dependencies (of the same kind) for a single dependent
- * object. This has a little less overhead than recording each separately.
+ * object.  This has a little less overhead than recording each separately.
  */
 void
 recordMultipleDependencies(const ObjectAddress *depender,
@@ -324,7 +324,7 @@ isObjectPinned(const ObjectAddress *object, Relation rel)
  * Detect whether a sequence is marked as "owned" by a column
  *
  * An ownership marker is an AUTO dependency from the sequence to the
- * column. If we find one, store the identity of the owning column
+ * column.  If we find one, store the identity of the owning column
  * into *tableId and *colId and return TRUE; else return FALSE.
  *
  * Note: if there's more than one such pg_depend entry then you get
index 90c4acc9b20ca7fe14908ec0de634e8dc0885fff..8f22e46a2c1ccea53335545df8efb8911a1224f4 100644 (file)
@@ -311,7 +311,7 @@ OperatorShellMake(const char *operatorName,
  * specify operators that do not exist.  For example, if operator
  * "op" is being defined, the negator operator "negop" and the
  * commutator "commop" can also be defined without specifying
- * any information other than their names. Since in order to
+ * any information other than their names.  Since in order to
  * add "op" to the PG_OPERATOR catalog, all the Oid's for these
  * operators must be placed in the fields of "op", a forward
  * declaration is done on the commutator and negator operators.
@@ -429,7 +429,7 @@ OperatorCreate(const char *operatorName,
                       operatorName);
 
    /*
-    * Set up the other operators.  If they do not currently exist, create
+    * Set up the other operators.  If they do not currently exist, create
     * shells in order to get ObjectId's.
     */
 
index e2e11163e9058548670dbd0856c6f6ff0b89e17c..b8109699806cdc8dab74ee1b3cfbc14bb08c7273 100644 (file)
@@ -152,7 +152,7 @@ ProcedureCreate(const char *procedureName,
 
    /*
     * Do not allow polymorphic return type unless at least one input argument
-    * is polymorphic.  Also, do not allow return type INTERNAL unless at
+    * is polymorphic.  Also, do not allow return type INTERNAL unless at
     * least one input argument is INTERNAL.
     */
    for (i = 0; i < parameterCount; i++)
@@ -178,7 +178,7 @@ ProcedureCreate(const char *procedureName,
            /*
             * We don't bother to distinguish input and output params here, so
             * if there is, say, just an input INTERNAL param then we will
-            * still set internalOutParam.  This is OK since we don't really
+            * still set internalOutParam.  This is OK since we don't really
             * care.
             */
            switch (allParams[i])
@@ -575,7 +575,7 @@ ProcedureCreate(const char *procedureName,
 
        /*
         * Set per-function configuration parameters so that the validation is
-        * done with the environment the function expects.  However, if
+        * done with the environment the function expects.  However, if
         * check_function_bodies is off, we don't do this, because that would
         * create dump ordering hazards that pg_dump doesn't know how to deal
         * with.  (For example, a SET clause might refer to a not-yet-created
@@ -836,7 +836,7 @@ sql_function_parse_error_callback(void *arg)
 /*
  * Adjust a syntax error occurring inside the function body of a CREATE
  * FUNCTION command.  This can be used by any function validator, not only
- * for SQL-language functions. It is assumed that the syntax error position
+ * for SQL-language functions.  It is assumed that the syntax error position
  * is initially relative to the function body string (as passed in).  If
  * possible, we adjust the position to reference the original CREATE command;
  * if we can't manage that, we set up an "internal query" syntax error instead.
@@ -967,7 +967,7 @@ match_prosrc_to_literal(const char *prosrc, const char *literal,
 
    /*
     * This implementation handles backslashes and doubled quotes in the
-    * string literal.  It does not handle the SQL syntax for literals
+    * string literal.  It does not handle the SQL syntax for literals
     * continued across line boundaries.
     *
     * We do the comparison a character at a time, not a byte at a time, so
index 98248ac3ee098599240c5b211895f4fe25290031..e2aef05c0ff21277ed3758cdc77ae4f48dcd2697 100644 (file)
@@ -155,7 +155,7 @@ recordDependencyOnOwner(Oid classId, Oid objectId, Oid owner)
  * shdepChangeDep
  *
  * Update shared dependency records to account for an updated referenced
- * object. This is an internal workhorse for operations such as changing
+ * object.  This is an internal workhorse for operations such as changing
  * an object's owner.
  *
  * There must be no more than one existing entry for the given dependent
@@ -304,7 +304,7 @@ changeDependencyOnOwner(Oid classId, Oid objectId, Oid newOwnerId)
     * was previously granted some rights to the object.
     *
     * This step is analogous to aclnewowner's removal of duplicate entries
-    * in the ACL.  We have to do it to handle this scenario:
+    * in the ACL.  We have to do it to handle this scenario:
     *      A grants some rights on an object to B
     *      ALTER OWNER changes the object's owner to B
     *      ALTER OWNER changes the object's owner to C
@@ -329,7 +329,7 @@ changeDependencyOnOwner(Oid classId, Oid objectId, Oid newOwnerId)
  *     Helper for updateAclDependencies.
  *
  * Takes two Oid arrays and returns elements from the first not found in the
- * second. We assume both arrays are sorted and de-duped, and that the
+ * second.  We assume both arrays are sorted and de-duped, and that the
  * second array does not contain any values not found in the first.
  *
  * NOTE: Both input arrays are pfreed.
@@ -513,7 +513,7 @@ checkSharedDependencies(Oid classId, Oid objectId,
    /*
     * We limit the number of dependencies reported to the client to
     * MAX_REPORTED_DEPS, since client software may not deal well with
-    * enormous error strings.  The server log always gets a full report.
+    * enormous error strings.  The server log always gets a full report.
     */
 #define MAX_REPORTED_DEPS 100
 
@@ -594,7 +594,7 @@ checkSharedDependencies(Oid classId, Oid objectId,
            bool        stored = false;
 
            /*
-            * XXX this info is kept on a simple List.  Maybe it's not good
+            * XXX this info is kept on a simple List.  Maybe it's not good
             * for performance, but using a hash table seems needlessly
             * complex.  The expected number of databases is not high anyway,
             * I suppose.
@@ -831,7 +831,7 @@ shdepAddDependency(Relation sdepRel,
 
    /*
     * Make sure the object doesn't go away while we record the dependency on
-    * it.  DROP routines should lock the object exclusively before they check
+    * it.  DROP routines should lock the object exclusively before they check
     * shared dependencies.
     */
    shdepLockAndCheckObject(refclassId, refobjId);
@@ -984,7 +984,7 @@ shdepLockAndCheckObject(Oid classId, Oid objectId)
 
            /*
             * Currently, this routine need not support any other shared
-            * object types besides roles.  If we wanted to record explicit
+            * object types besides roles.  If we wanted to record explicit
             * dependencies on databases or tablespaces, we'd need code along
             * these lines:
             */
@@ -1115,7 +1115,7 @@ isSharedObjectPinned(Oid classId, Oid objectId, Relation sdepRel)
 /*
  * shdepDropOwned
  *
- * Drop the objects owned by any one of the given RoleIds. If a role has
+ * Drop the objects owned by any one of the given RoleIds.  If a role has
  * access to an object, the grant will be removed as well (but the object
  * will not, of course).
  *
index bc797fd40813658dbec1144c9e3dcb6be23bbfa9..beac6a679da2f58885520a0ffe204507e5537c2f 100644 (file)
@@ -370,7 +370,7 @@ TypeCreate(Oid newTypeOid,
    if (HeapTupleIsValid(tup))
    {
        /*
-        * check that the type is not already defined.  It may exist as a
+        * check that the type is not already defined.  It may exist as a
         * shell type, however.
         */
        if (((Form_pg_type) GETSTRUCT(tup))->typisdefined)
index 2e279c7ed850bb67fbeeaad7c12e9ed75e05dabf..699ac4d17dd4b864b2b2ad0e8c30e467f1b4f9ad 100644 (file)
@@ -34,7 +34,7 @@
  * that have been created or deleted in the current transaction.  When
  * a relation is created, we create the physical file immediately, but
  * remember it so that we can delete the file again if the current
- * transaction is aborted. Conversely, a deletion request is NOT
+ * transaction is aborted.  Conversely, a deletion request is NOT
  * executed immediately, but is just entered in the list.  When and if
  * the transaction commits, we can delete the physical file.
  *
index b284cd23aa9a3bc92dc16abf5f63d03cb4b62155..415a362c0e21a48a9840efa966e9b04a8b71778f 100644 (file)
@@ -312,7 +312,7 @@ create_toast_table(Relation rel, Oid toastOid, Oid toastIndexOid,
 }
 
 /*
- * Check to see whether the table needs a TOAST table. It does only if
+ * Check to see whether the table needs a TOAST table.  It does only if
  * (1) there are any toastable attributes, and (2) the maximum length
  * of a tuple could exceed TOAST_TUPLE_THRESHOLD.  (We don't want to
  * create a toast table for something like "f1 varchar(20)".)
index 461f81005c244c9da98353b3de1260df9f53157d..11170fcdd7c8c2566983377f690c157c54f6ec26 100644 (file)
@@ -173,7 +173,7 @@ DefineAggregate(List *name, List *args, bool oldstyle, List *parameters)
     *
     * transtype can't be a pseudo-type, since we need to be able to store
     * values of the transtype.  However, we can allow polymorphic transtype
-    * in some cases (AggregateCreate will check).  Also, we allow "internal"
+    * in some cases (AggregateCreate will check).  Also, we allow "internal"
     * for functions that want to pass pointers to private data structures;
     * but allow that only to superusers, since you could crash the system (or
     * worse) by connecting up incompatible internal-using functions in an
index ccd5c4a7029b0c872c16dc0594c4131dbe1fd97b..1e8bb98b14236f70c5df466f7077289ea383ded0 100644 (file)
@@ -34,7 +34,7 @@
 
 
 /*
- * Executes an ALTER OBJECT / RENAME TO statement. Based on the object
+ * Executes an ALTER OBJECT / RENAME TO statement.  Based on the object
  * type, the function appropriate to that type is executed.
  */
 void
index 2bb1fd791f560dd88ced9d53401d8bb77c046ef2..813a7be0b0486735ae5d00723e296321b4af4a62 100644 (file)
@@ -142,7 +142,7 @@ analyze_rel(Oid relid, VacuumStmt *vacstmt, BufferAccessStrategy bstrategy)
    anl_context = CurrentMemoryContext;
 
    /*
-    * Check for user-requested abort.  Note we want this to be inside a
+    * Check for user-requested abort.  Note we want this to be inside a
     * transaction, so xact.c doesn't issue useless WARNING.
     */
    CHECK_FOR_INTERRUPTS();
@@ -293,7 +293,7 @@ analyze_rel(Oid relid, VacuumStmt *vacstmt, BufferAccessStrategy bstrategy)
 
    /*
     * Open all indexes of the relation, and see if there are any analyzable
-    * columns in the indexes.  We do not analyze index columns if there was
+    * columns in the indexes.  We do not analyze index columns if there was
     * an explicit column list in the ANALYZE command, however.
     */
    vac_open_indexes(onerel, AccessShareLock, &nindexes, &Irel);
@@ -355,7 +355,7 @@ analyze_rel(Oid relid, VacuumStmt *vacstmt, BufferAccessStrategy bstrategy)
 
    /*
     * Determine how many rows we need to sample, using the worst case from
-    * all analyzable columns.  We use a lower bound of 100 rows to avoid
+    * all analyzable columns.  We use a lower bound of 100 rows to avoid
     * possible overflow in Vitter's algorithm.  (Note: that will also be
     * the target in the corner case where there are no analyzable columns.)
     */
@@ -384,7 +384,7 @@ analyze_rel(Oid relid, VacuumStmt *vacstmt, BufferAccessStrategy bstrategy)
                                  &totalrows, &totaldeadrows);
 
    /*
-    * Compute the statistics.  Temporary results during the calculations for
+    * Compute the statistics.  Temporary results during the calculations for
     * each column are stored in a child context.  The calc routines are
     * responsible to make sure that whatever they store into the VacAttrStats
     * structure is allocated in anl_context.
@@ -425,7 +425,7 @@ analyze_rel(Oid relid, VacuumStmt *vacstmt, BufferAccessStrategy bstrategy)
 
        /*
         * Emit the completed stats rows into pg_statistic, replacing any
-        * previous statistics for the target columns.  (If there are stats in
+        * previous statistics for the target columns.  (If there are stats in
         * pg_statistic for columns we didn't process, we leave them alone.)
         */
        update_attstats(relid, attr_cnt, vacattrstats);
@@ -719,7 +719,7 @@ examine_attribute(Relation onerel, int attnum)
        return NULL;
 
    /*
-    * Create the VacAttrStats struct.  Note that we only have a copy of the
+    * Create the VacAttrStats struct.  Note that we only have a copy of the
     * fixed fields of the pg_attribute tuple.
     */
    stats = (VacAttrStats *) palloc0(sizeof(VacAttrStats));
@@ -748,7 +748,7 @@ examine_attribute(Relation onerel, int attnum)
    }
 
    /*
-    * Call the type-specific typanalyze function.  If none is specified, use
+    * Call the type-specific typanalyze function.  If none is specified, use
     * std_typanalyze().
     */
    if (OidIsValid(stats->attrtype->typanalyze))
@@ -824,7 +824,7 @@ BlockSampler_Next(BlockSampler bs)
     * If we are to skip, we should advance t (hence decrease K), and
     * repeat the same probabilistic test for the next block.  The naive
     * implementation thus requires a random_fract() call for each block
-    * number.  But we can reduce this to one random_fract() call per
+    * number.  But we can reduce this to one random_fract() call per
     * selected block, by noting that each time the while-test succeeds,
     * we can reinterpret V as a uniform random number in the range 0 to p.
     * Therefore, instead of choosing a new V, we just adjust p to be
@@ -950,7 +950,7 @@ acquire_sample_rows(Relation onerel, HeapTuple *rows, int targrows,
            /*
             * We ignore unused and redirect line pointers.  DEAD line
             * pointers should be counted as dead, because we need vacuum to
-            * run to get rid of them.  Note that this rule agrees with the
+            * run to get rid of them.  Note that this rule agrees with the
             * way that heap_page_prune() counts things.
             */
            if (!ItemIdIsNormal(itemid))
@@ -995,7 +995,7 @@ acquire_sample_rows(Relation onerel, HeapTuple *rows, int targrows,
                     * is the safer option.
                     *
                     * A special case is that the inserting transaction might
-                    * be our own.  In this case we should count and sample
+                    * be our own.  In this case we should count and sample
                     * the row, to accommodate users who load a table and
                     * analyze it in one transaction.  (pgstat_report_analyze
                     * has to adjust the numbers we send to the stats
@@ -1037,7 +1037,7 @@ acquire_sample_rows(Relation onerel, HeapTuple *rows, int targrows,
                /*
                 * The first targrows sample rows are simply copied into the
                 * reservoir. Then we start replacing tuples in the sample
-                * until we reach the end of the relation.  This algorithm is
+                * until we reach the end of the relation.  This algorithm is
                 * from Jeff Vitter's paper (see full citation below). It
                 * works by repeatedly computing the number of tuples to skip
                 * before selecting a tuple, which replaces a randomly chosen
@@ -1265,7 +1265,7 @@ compare_rows(const void *a, const void *b)
  *     Statistics are stored in several places: the pg_class row for the
  *     relation has stats about the whole relation, and there is a
  *     pg_statistic row for each (non-system) attribute that has ever
- *     been analyzed.  The pg_class values are updated by VACUUM, not here.
+ *     been analyzed.  The pg_class values are updated by VACUUM, not here.
  *
  *     pg_statistic rows are just added or updated normally.  This means
  *     that pg_statistic will probably contain some deleted rows at the
@@ -1665,7 +1665,7 @@ compute_minimal_stats(VacAttrStatsP stats,
            /*
             * If the value is toasted, we want to detoast it just once to
             * avoid repeated detoastings and resultant excess memory usage
-            * during the comparisons.  Also, check to see if the value is
+            * during the comparisons.  Also, check to see if the value is
             * excessively wide, and if so don't detoast at all --- just
             * ignore the value.
             */
@@ -1782,7 +1782,7 @@ compute_minimal_stats(VacAttrStatsP stats,
             * We assume (not very reliably!) that all the multiply-occurring
             * values are reflected in the final track[] list, and the other
             * nonnull values all appeared but once.  (XXX this usually
-            * results in a drastic overestimate of ndistinct.  Can we do
+            * results in a drastic overestimate of ndistinct.  Can we do
             * any better?)
             *----------
             */
@@ -1819,7 +1819,7 @@ compute_minimal_stats(VacAttrStatsP stats,
         * Decide how many values are worth storing as most-common values. If
         * we are able to generate a complete MCV list (all the values in the
         * sample will fit, and we think these are all the ones in the table),
-        * then do so.  Otherwise, store only those values that are
+        * then do so.  Otherwise, store only those values that are
         * significantly more common than the (estimated) average. We set the
         * threshold rather arbitrarily at 25% more than average, with at
         * least 2 instances in the sample.
@@ -1984,7 +1984,7 @@ compute_scalar_stats(VacAttrStatsP stats,
            /*
             * If the value is toasted, we want to detoast it just once to
             * avoid repeated detoastings and resultant excess memory usage
-            * during the comparisons.  Also, check to see if the value is
+            * during the comparisons.  Also, check to see if the value is
             * excessively wide, and if so don't detoast at all --- just
             * ignore the value.
             */
@@ -2030,7 +2030,7 @@ compute_scalar_stats(VacAttrStatsP stats,
         * accumulate ordering-correlation statistics.
         *
         * To determine which are most common, we first have to count the
-        * number of duplicates of each value.  The duplicates are adjacent in
+        * number of duplicates of each value.  The duplicates are adjacent in
         * the sorted list, so a brute-force approach is to compare successive
         * datum values until we find two that are not equal. However, that
         * requires N-1 invocations of the datum comparison routine, which are
@@ -2039,7 +2039,7 @@ compute_scalar_stats(VacAttrStatsP stats,
         * that are adjacent in the sorted order; otherwise it could not know
         * that it's ordered the pair correctly.) We exploit this by having
         * compare_scalars remember the highest tupno index that each
-        * ScalarItem has been found equal to.  At the end of the sort, a
+        * ScalarItem has been found equal to.  At the end of the sort, a
         * ScalarItem's tupnoLink will still point to itself if and only if it
         * is the last item of its group of duplicates (since the group will
         * be ordered by tupno).
@@ -2159,7 +2159,7 @@ compute_scalar_stats(VacAttrStatsP stats,
         * Decide how many values are worth storing as most-common values. If
         * we are able to generate a complete MCV list (all the values in the
         * sample will fit, and we think these are all the ones in the table),
-        * then do so.  Otherwise, store only those values that are
+        * then do so.  Otherwise, store only those values that are
         * significantly more common than the (estimated) average. We set the
         * threshold rather arbitrarily at 25% more than average, with at
         * least 2 instances in the sample.  Also, we won't suppress values
@@ -2314,7 +2314,7 @@ compute_scalar_stats(VacAttrStatsP stats,
 
            /*
             * The object of this loop is to copy the first and last values[]
-            * entries along with evenly-spaced values in between.  So the
+            * entries along with evenly-spaced values in between.  So the
             * i'th value is values[(i * (nvals - 1)) / (num_hist - 1)].  But
             * computing that subscript directly risks integer overflow when
             * the stats target is more than a couple thousand.  Instead we
@@ -2425,7 +2425,7 @@ compute_scalar_stats(VacAttrStatsP stats,
  * qsort_arg comparator for sorting ScalarItems
  *
  * Aside from sorting the items, we update the tupnoLink[] array
- * whenever two ScalarItems are found to contain equal datums. The array
+ * whenever two ScalarItems are found to contain equal datums.  The array
  * is indexed by tupno; for each ScalarItem, it contains the highest
  * tupno that that item's datum has been found to be equal to.  This allows
  * us to avoid additional comparisons in compute_scalar_stats().
index bfe4527514d2a2177764a156dcbe3302d5cc9c40..801839c91f85e9cc1ad080046c934aeccc608c54 100644 (file)
@@ -53,7 +53,7 @@
  *   transaction.
  *
  * Like NOTIFY, LISTEN and UNLISTEN just add the desired action to a list
- * of pending actions. If we reach transaction commit, the changes are
+ * of pending actions.  If we reach transaction commit, the changes are
  * applied to pg_listener just before executing any pending NOTIFYs.  This
  * method is necessary because to avoid race conditions, we must hold lock
  * on pg_listener from when we insert a new listener tuple until we commit.
@@ -133,8 +133,8 @@ static List *upperPendingActions = NIL; /* list of upper-xact lists */
 
 /*
  * State for outbound notifies consists of a list of all relnames NOTIFYed
- * in the current transaction. We do not actually perform a NOTIFY until
- * and unless the transaction commits. pendingNotifies is NIL if no
+ * in the current transaction.  We do not actually perform a NOTIFY until
+ * and unless the transaction commits.  pendingNotifies is NIL if no
  * NOTIFYs have been done in the current transaction.
  *
  * The list is kept in CurTransactionContext.  In subtransactions, each
@@ -636,7 +636,7 @@ Send_Notify(Relation lRel)
             * If someone has already notified this listener, we don't bother
             * modifying the table, but we do still send a SIGUSR2 signal,
             * just in case that backend missed the earlier signal for some
-            * reason.  It's OK to send the signal first, because the other
+            * reason.  It's OK to send the signal first, because the other
             * guy can't read pg_listener until we unlock it.
             */
            if (kill(listenerPID, SIGUSR2) < 0)
@@ -791,7 +791,7 @@ NotifyInterruptHandler(SIGNAL_ARGS)
    int         save_errno = errno;
 
    /*
-    * Note: this is a SIGNAL HANDLER.  You must be very wary what you do
+    * Note: this is a SIGNAL HANDLER.  You must be very wary what you do
     * here. Some helpful soul had this routine sprinkled with TPRINTFs, which
     * would likely lead to corruption of stdio buffers if they were ever
     * turned on.
@@ -1071,7 +1071,7 @@ NotifyMyFrontEnd(char *relname, int32 listenerPID)
        pq_endmessage(&buf);
 
        /*
-        * NOTE: we do not do pq_flush() here.  For a self-notify, it will
+        * NOTE: we do not do pq_flush() here.  For a self-notify, it will
         * happen at the end of the transaction, and for incoming notifies
         * ProcessIncomingNotify will do it after finding all the notifies.
         */
@@ -1124,7 +1124,7 @@ notify_twophase_postcommit(TransactionId xid, uint16 info,
    /*
     * Set up to issue the NOTIFY at the end of my own current transaction.
     * (XXX this has some issues if my own transaction later rolls back, or if
-    * there is any significant delay before I commit.  OK for now because we
+    * there is any significant delay before I commit.  OK for now because we
     * disallow COMMIT PREPARED inside a transaction block.)
     */
    Async_Notify((char *) recdata);
index ff2a5fb60a43b1af9f2dd76f9a3f88b259a543d8..4aaad1e50417dcce9f8c024087343c44007b3f3c 100644 (file)
@@ -88,7 +88,7 @@ static List *get_tables_to_cluster(MemoryContext cluster_context);
  *
  * The single-relation case does not have any such overhead.
  *
- * We also allow a relation to be specified without index. In that case,
+ * We also allow a relation to be specified without index.  In that case,
  * the indisclustered bit will be looked up, and an ERROR will be thrown
  * if there is no index with the bit set.
  *---------------------------------------------------------------------------
@@ -209,7 +209,7 @@ cluster(ClusterStmt *stmt, bool isTopLevel)
                                                ALLOCSET_DEFAULT_MAXSIZE);
 
        /*
-        * Build the list of relations to cluster.  Note that this lives in
+        * Build the list of relations to cluster.  Note that this lives in
         * cluster_context.
         */
        rvs = get_tables_to_cluster(cluster_context);
@@ -245,7 +245,7 @@ cluster(ClusterStmt *stmt, bool isTopLevel)
  *
  * This clusters the table by creating a new, clustered table and
  * swapping the relfilenodes of the new table and the old table, so
- * the OID of the original table is preserved. Thus we do not lose
+ * the OID of the original table is preserved.  Thus we do not lose
  * GRANT, inheritance nor references to this table (this was a bug
  * in releases thru 7.3).
  *
@@ -264,7 +264,7 @@ cluster_rel(RelToCluster *rvtc, bool recheck, bool verbose)
 
    /*
     * We grab exclusive access to the target rel and index for the duration
-    * of the transaction.  (This is redundant for the single-transaction
+    * of the transaction.  (This is redundant for the single-transaction
     * case, since cluster() already did it.)  The index lock is taken inside
     * check_index_is_clusterable.
     */
@@ -299,7 +299,7 @@ cluster_rel(RelToCluster *rvtc, bool recheck, bool verbose)
         * check in the "recheck" case is appropriate (which currently means
         * somebody is executing a database-wide CLUSTER), because there is
         * another check in cluster() which will stop any attempt to cluster
-        * remote temp tables by name.  There is another check in
+        * remote temp tables by name.  There is another check in
         * check_index_is_clusterable which is redundant, but we leave it for
         * extra safety.
         */
@@ -382,7 +382,7 @@ check_index_is_clusterable(Relation OldHeap, Oid indexOid, bool recheck)
 
    /*
     * Disallow clustering on incomplete indexes (those that might not index
-    * every row of the relation).  We could relax this by making a separate
+    * every row of the relation).  We could relax this by making a separate
     * seqscan pass over the table to copy the missing rows, but that seems
     * expensive and tedious.
     */
@@ -592,7 +592,7 @@ rebuild_relation(Relation OldHeap, Oid indexOid)
 
    /*
     * Create the new heap, using a temporary name in the same namespace as
-    * the existing table.  NOTE: there is some risk of collision with user
+    * the existing table.  NOTE: there is some risk of collision with user
     * relnames.  Working around this seems more trouble than it's worth; in
     * particular, we can't create the new heap in a different namespace from
     * the old, or we will have problems with the TEMP status of temp tables.
@@ -633,7 +633,7 @@ rebuild_relation(Relation OldHeap, Oid indexOid)
 
    /*
     * Rebuild each index on the relation (but not the toast table, which is
-    * all-new at this point).  We do not need CommandCounterIncrement()
+    * all-new at this point).  We do not need CommandCounterIncrement()
     * because reindex_relation does it.
     *
     * Note: because index_build is called via reindex_relation, it will never
@@ -646,9 +646,9 @@ rebuild_relation(Relation OldHeap, Oid indexOid)
 
    /*
     * At this point, everything is kosher except that the toast table's name
-    * corresponds to the temporary table.  The name is irrelevant to the
+    * corresponds to the temporary table.  The name is irrelevant to the
     * backend because it's referenced by OID, but users looking at the
-    * catalogs could be confused.  Rename it to prevent this problem.
+    * catalogs could be confused.  Rename it to prevent this problem.
     *
     * Note no lock required on the relation, because we already hold an
     * exclusive lock on it.
@@ -1130,7 +1130,7 @@ swap_relation_files(Oid r1, Oid r2, TransactionId frozenXid)
    }
 
    /*
-    * Blow away the old relcache entries now.  We need this kluge because
+    * Blow away the old relcache entries now.  We need this kluge because
     * relcache.c keeps a link to the smgr relation for the physical file, and
     * that will be out of date as soon as we do CommandCounterIncrement.
     * Whichever of the rels is the second to be cleared during cache
index b6a90a248bf458a4d6cab6935e24a7472e5a62b7..55959d6c96d8a0c9b976dc75fe9f963bce662f6a 100644 (file)
@@ -540,7 +540,7 @@ CommentRelation(int objtype, List *relname, char *comment)
  * such as a table's column. The routine will check security
  * restrictions and then attempt to look up the specified
  * attribute. If successful, a comment is added/dropped, else an
- * ereport() exception is thrown.  The parameters are the relation
+ * ereport() exception is thrown.   The parameters are the relation
  * and attribute names, and the comment
  */
 static void
@@ -1403,7 +1403,7 @@ CommentLargeObject(List *qualname, char *comment)
 
            /*
             * Values too large for int4 will be represented as Float
-            * constants by the lexer.  Accept these if they are valid OID
+            * constants by the lexer.  Accept these if they are valid OID
             * strings.
             */
            loid = DatumGetObjectId(DirectFunctionCall1(oidin,
index eca25b1f64113cee1c920a4b86a1a9a454f5f292..9f634f1d00b1f3d040d5749cdd097f9fdd5bf3e9 100644 (file)
@@ -151,7 +151,7 @@ typedef struct CopyStateData
 
    /*
     * Finally, raw_buf holds raw data read from the data source (file or
-    * client connection).  CopyReadLine parses this data sufficiently to
+    * client connection).  CopyReadLine parses this data sufficiently to
     * locate line boundaries, then transfers the data to line_buf and
     * converts it.  Note: we guarantee that there is a \0 at
     * raw_buf[raw_buf_len].
@@ -178,7 +178,7 @@ typedef struct
  * function call overhead in tight COPY loops.
  *
  * We must use "if (1)" because the usual "do {...} while(0)" wrapper would
- * prevent the continue/break processing from working. We end the "if (1)"
+ * prevent the continue/break processing from working.  We end the "if (1)"
  * with "else ((void) 0)" to ensure the "if" does not unintentionally match
  * any "else" in the calling code, and to avoid any compiler warnings about
  * empty statements.  See http://www.cit.gu.edu.au/~anthony/info/C/C.macros.
@@ -474,7 +474,7 @@ CopySendEndOfRow(CopyState cstate)
  * CopyGetData reads data from the source (file or frontend)
  *
  * We attempt to read at least minread, and at most maxread, bytes from
- * the source. The actual number of bytes read is returned; if this is
+ * the source.  The actual number of bytes read is returned; if this is
  * less than minread, EOF was detected.
  *
  * Note: when copying from the frontend, we expect a proper EOF mark per
@@ -691,7 +691,7 @@ CopyLoadRawBuf(CopyState cstate)
  * we also support copying the output of an arbitrary SELECT query.
  *
  * If <pipe> is false, transfer is between the table and the file named
- * <filename>. Otherwise, transfer is between the table and our regular
+ * <filename>.  Otherwise, transfer is between the table and our regular
  * input/output stream. The latter could be either stdin/stdout or a
  * socket, depending on whether we're running under Postmaster control.
  *
@@ -1030,7 +1030,7 @@ DoCopy(const CopyStmt *stmt, const char *queryString)
                     errmsg("COPY (SELECT) WITH OIDS is not supported")));
 
        /*
-        * Run parse analysis and rewrite.  Note this also acquires sufficient
+        * Run parse analysis and rewrite.  Note this also acquires sufficient
         * locks on the source table(s).
         *
         * Because the parser and planner tend to scribble on their input, we
@@ -1337,7 +1337,7 @@ CopyTo(CopyState cstate)
     * Create a temporary memory context that we can reset once per row to
     * recover palloc'd memory.  This avoids any problems with leaks inside
     * datatype output routines, and should be faster than retail pfree's
-    * anyway.  (We don't need a whole econtext as CopyFrom does.)
+    * anyway.  (We don't need a whole econtext as CopyFrom does.)
     */
    cstate->rowcontext = AllocSetContextCreate(CurrentMemoryContext,
                                               "COPY TO",
@@ -2080,7 +2080,7 @@ CopyFrom(CopyState cstate)
 
        /*
         * Now compute and insert any defaults available for the columns not
-        * provided by the input data.  Anything not processed here or above
+        * provided by the input data.  Anything not processed here or above
         * will remain NULL.
         */
        for (i = 0; i < num_defaults; i++)
@@ -2195,7 +2195,7 @@ CopyFrom(CopyState cstate)
  * server encoding.
  *
  * Result is true if read was terminated by EOF, false if terminated
- * by newline. The terminating newline or EOF marker is not included
+ * by newline.  The terminating newline or EOF marker is not included
  * in the final value of line_buf.
  */
 static bool
@@ -2349,7 +2349,7 @@ CopyReadLineText(CopyState cstate)
         * of read-ahead and avoid the many calls to
         * IF_NEED_REFILL_AND_NOT_EOF_CONTINUE(), but the COPY_OLD_FE protocol
         * does not allow us to read too far ahead or we might read into the
-        * next data, so we read-ahead only as far we know we can.  One
+        * next data, so we read-ahead only as far we know we can.  One
         * optimization would be to read-ahead four byte here if
         * cstate->copy_dest != COPY_OLD_FE, but it hardly seems worth it,
         * considering the size of the buffer.
@@ -2359,7 +2359,7 @@ CopyReadLineText(CopyState cstate)
            REFILL_LINEBUF;
 
            /*
-            * Try to read some more data.  This will certainly reset
+            * Try to read some more data.  This will certainly reset
             * raw_buf_index to zero, and raw_buf_ptr must go with it.
             */
            if (!CopyLoadRawBuf(cstate))
@@ -2417,7 +2417,7 @@ CopyReadLineText(CopyState cstate)
            /*
             * Updating the line count for embedded CR and/or LF chars is
             * necessarily a little fragile - this test is probably about the
-            * best we can do.  (XXX it's arguable whether we should do this
+            * best we can do.  (XXX it's arguable whether we should do this
             * at all --- is cur_lineno a physical or logical count?)
             */
            if (in_quote && c == (cstate->eol_type == EOL_NL ? '\n' : '\r'))
@@ -2596,7 +2596,7 @@ CopyReadLineText(CopyState cstate)
                 * after a backslash is special, so we skip over that second
                 * character too.  If we didn't do that \\. would be
                 * considered an eof-of copy, while in non-CVS mode it is a
-                * literal backslash followed by a period.  In CSV mode,
+                * literal backslash followed by a period.  In CSV mode,
                 * backslashes are not special, so we want to process the
                 * character after the backslash just like a normal character,
                 * so we don't increment in those cases.
@@ -2668,7 +2668,7 @@ GetDecimalFromHex(char hex)
  * null_print is the null marker string.  Note that this is compared to
  * the pre-de-escaped input string.
  *
- * The return value is the number of fields actually read. (We error out
+ * The return value is the number of fields actually read.  (We error out
  * if this would exceed maxfields, which is the length of fieldvals[].)
  */
 static int
@@ -2698,7 +2698,7 @@ CopyReadAttributesText(CopyState cstate, int maxfields, char **fieldvals)
    /*
     * The de-escaped attributes will certainly not be longer than the input
     * data line, so we can just force attribute_buf to be large enough and
-    * then transfer data without any checks for enough space.  We need to do
+    * then transfer data without any checks for enough space.  We need to do
     * it this way because enlarging attribute_buf mid-stream would invalidate
     * pointers already stored into fieldvals[].
     */
@@ -2926,7 +2926,7 @@ CopyReadAttributesCSV(CopyState cstate, int maxfields, char **fieldvals)
    /*
     * The de-escaped attributes will certainly not be longer than the input
     * data line, so we can just force attribute_buf to be large enough and
-    * then transfer data without any checks for enough space.  We need to do
+    * then transfer data without any checks for enough space.  We need to do
     * it this way because enlarging attribute_buf mid-stream would invalidate
     * pointers already stored into fieldvals[].
     */
@@ -3139,7 +3139,7 @@ CopyAttributeOutText(CopyState cstate, char *string)
    /*
     * We have to grovel through the string searching for control characters
     * and instances of the delimiter character.  In most cases, though, these
-    * are infrequent.  To avoid overhead from calling CopySendData once per
+    * are infrequent.  To avoid overhead from calling CopySendData once per
     * character, we dump out all characters between escaped characters in a
     * single call.  The loop invariant is that the data from "start" to "ptr"
     * can be sent literally, but hasn't yet been.
index b61e5cf780f301292a0bc67668713526ed1e1de4..9b549d10361f8d55a473b0e9d379363ee7909e89 100644 (file)
@@ -263,7 +263,7 @@ createdb(const CreatedbStmt *stmt)
     * To create a database, must have createdb privilege and must be able to
     * become the target role (this does not imply that the target role itself
     * must have createdb privilege).  The latter provision guards against
-    * "giveaway" attacks.  Note that a superuser will always have both of
+    * "giveaway" attacks.  Note that a superuser will always have both of
     * these privileges a fortiori.
     */
    if (!have_createdb_privilege())
@@ -447,7 +447,7 @@ createdb(const CreatedbStmt *stmt)
        /*
         * If we are trying to change the default tablespace of the template,
         * we require that the template not have any files in the new default
-        * tablespace.  This is necessary because otherwise the copied
+        * tablespace.  This is necessary because otherwise the copied
         * database would contain pg_class rows that refer to its default
         * tablespace both explicitly (by OID) and implicitly (as zero), which
         * would cause problems.  For example another CREATE DATABASE using
@@ -483,7 +483,7 @@ createdb(const CreatedbStmt *stmt)
    }
 
    /*
-    * Check for db name conflict.  This is just to give a more friendly error
+    * Check for db name conflict.  This is just to give a more friendly error
     * message than "unique index violation".  There's a race condition but
     * we're willing to accept the less friendly message in that case.
     */
@@ -598,7 +598,7 @@ createdb(const CreatedbStmt *stmt)
     *
     * Inconsistency of this sort is inherent to all SnapshotNow scans, unless
     * some lock is held to prevent concurrent updates of the rows being
-    * sought.  There should be a generic fix for that, but in the meantime
+    * sought.  There should be a generic fix for that, but in the meantime
     * it's worth fixing this case in particular because we are doing very
     * heavyweight operations within the scan, so that the elapsed time for
     * the scan is vastly longer than for most other catalog scans.  That
@@ -1164,7 +1164,7 @@ movedb(const char *dbname, const char *tblspcname)
 
    /*
     * Use an ENSURE block to make sure we remove the debris if the copy fails
-    * (eg, due to out-of-disk-space).  This is not a 100% solution, because
+    * (eg, due to out-of-disk-space).  This is not a 100% solution, because
     * of the possibility of failure during transaction commit, but it should
     * handle most scenarios.
     */
@@ -1733,7 +1733,7 @@ get_db_info(const char *name, LOCKMODE lockmode,
            LockSharedObject(DatabaseRelationId, dbOid, 0, lockmode);
 
        /*
-        * And now, re-fetch the tuple by OID.  If it's still there and still
+        * And now, re-fetch the tuple by OID.  If it's still there and still
         * the same name, we win; else, drop the lock and loop back to try
         * again.
         */
index 009dcfd17d8182b618eed2bad9a46ba1b5a8bf22..a04b4e7ad2254256a3851d801e7344500486f767 100644 (file)
@@ -187,7 +187,7 @@ defGetInt64(DefElem *def)
 
            /*
             * Values too large for int4 will be represented as Float
-            * constants by the lexer.  Accept these if they are valid int8
+            * constants by the lexer.  Accept these if they are valid int8
             * strings.
             */
            return DatumGetInt64(DirectFunctionCall1(int8in,
index 54f82e6dada4b6dc858ed509081e591003920295..11129751c51ccf3f293e2f5254f0ad848fa5cc2f 100644 (file)
@@ -93,11 +93,11 @@ ExplainQuery(ExplainStmt *stmt, const char *queryString,
    getParamListTypes(params, &param_types, &num_params);
 
    /*
-    * Run parse analysis and rewrite.  Note this also acquires sufficient
+    * Run parse analysis and rewrite.  Note this also acquires sufficient
     * locks on the source table(s).
     *
     * Because the parser and planner tend to scribble on their input, we make
-    * a preliminary copy of the source querytree.  This prevents problems in
+    * a preliminary copy of the source querytree.  This prevents problems in
     * the case that the EXPLAIN is in a portal or plpgsql function and is
     * executed repeatedly.  (See also the same hack in DECLARE CURSOR and
     * PREPARE.)  XXX FIXME someday.
index dbd75cc95199dd9642cb87d6df044d912f443145..e7964463556fd1fb298a3538dc749192073ce5c0 100644 (file)
@@ -76,7 +76,7 @@ optionListToArray(List *options)
 
 
 /*
- * Transform a list of DefElem into text array format. This is substantially
+ * Transform a list of DefElem into text array format.  This is substantially
  * the same thing as optionListToArray(), except we recognize SET/ADD/DROP
  * actions for modifying an existing list of options, which is passed in
  * Datum form as oldOptions.  Also, if fdwvalidator isn't InvalidOid
@@ -119,7 +119,7 @@ transformGenericOptions(Oid catalogId,
 
        /*
         * It is possible to perform multiple SET/DROP actions on the same
-        * option.  The standard permits this, as long as the options to be
+        * option.  The standard permits this, as long as the options to be
         * added are unique.  Note that an unspecified action is taken to be
         * ADD.
         */
@@ -472,7 +472,7 @@ AlterForeignDataWrapper(AlterFdwStmt *stmt)
 
        /*
         * It could be that the options for the FDW, SERVER and USER MAPPING
-        * are no longer valid with the new validator.  Warn about this.
+        * are no longer valid with the new validator.  Warn about this.
         */
        if (stmt->validator)
            ereport(WARNING,
index db22a288885688d708902776d152c047293362f3..1c968826d9da6310894c2c5895e15630b0d91ea5 100644 (file)
@@ -75,7 +75,7 @@ static void AlterFunctionOwner_internal(Relation rel, HeapTuple tup,
  * allow a shell type to be used, or even created if the specified return type
  * doesn't exist yet.  (Without this, there's no way to define the I/O procs
  * for a new type.)  But SQL function creation won't cope, so error out if
- * the target language is SQL. (We do this here, not in the SQL-function
+ * the target language is SQL.  (We do this here, not in the SQL-function
  * validator, so as not to produce a NOTICE and then an ERROR for the same
  * condition.)
  */
@@ -389,7 +389,7 @@ examine_parameter_list(List *parameters, Oid languageOid,
  * FUNCTION and ALTER FUNCTION and return it via one of the out
  * parameters. Returns true if the passed option was recognized. If
  * the out parameter we were going to assign to points to non-NULL,
- * raise a duplicate-clause error. (We don't try to detect duplicate
+ * raise a duplicate-clause error.  (We don't try to detect duplicate
  * SET parameters though --- if you're redundant, the last one wins.)
  */
 static bool
@@ -685,7 +685,7 @@ interpret_AS_clause(Oid languageOid, const char *languageName,
    {
        /*
         * For "C" language, store the file name in probin and, when given,
-        * the link symbol name in prosrc.  If link symbol is omitted,
+        * the link symbol name in prosrc.  If link symbol is omitted,
         * substitute procedure name.  We also allow link symbol to be
         * specified as "-", since that was the habit in PG versions before
         * 8.4, and there might be dump files out there that don't translate
@@ -1557,7 +1557,7 @@ CreateCast(CreateCastStmt *stmt)
        /*
         * Restricting the volatility of a cast function may or may not be a
         * good idea in the abstract, but it definitely breaks many old
-        * user-defined types.  Disable this check --- tgl 2/1/03
+        * user-defined types.  Disable this check --- tgl 2/1/03
         */
 #ifdef NOT_USED
        if (procstruct->provolatile == PROVOLATILE_VOLATILE)
@@ -1621,7 +1621,7 @@ CreateCast(CreateCastStmt *stmt)
 
        /*
         * We know that composite, enum and array types are never binary-
-        * compatible with each other.  They all have OIDs embedded in them.
+        * compatible with each other.  They all have OIDs embedded in them.
         *
         * Theoretically you could build a user-defined base type that is
         * binary-compatible with a composite, enum, or array type.  But we
index b781d40fcec54be4bb56adfc74f6d34c64281be2..e8ae3ceb1294165f10f798b7c586c42c15573576 100644 (file)
@@ -235,7 +235,7 @@ DefineIndex(Oid relationId,
    }
 
    /*
-    * Force shared indexes into the pg_global tablespace.  This is a bit of a
+    * Force shared indexes into the pg_global tablespace.  This is a bit of a
     * hack but seems simpler than marking them in the BKI commands.
     */
    if (rel->rd_rel->relisshared)
@@ -376,7 +376,7 @@ DefineIndex(Oid relationId,
            {
                /*
                 * This shouldn't happen during CREATE TABLE, but can happen
-                * during ALTER TABLE.  Keep message in sync with
+                * during ALTER TABLE.  Keep message in sync with
                 * transformIndexConstraints() in parser/parse_utilcmd.c.
                 */
                ereport(ERROR,
@@ -464,7 +464,7 @@ DefineIndex(Oid relationId,
     * transactions.  That will prevent them from making incompatible HOT
     * updates.  The new index will be marked not indisready and not
     * indisvalid, so that no one else tries to either insert into it or use
-    * it for queries.  We pass skip_build = true to prevent the build.
+    * it for queries.  We pass skip_build = true to prevent the build.
     */
    indexRelationId =
        index_create(relationId, indexRelationName, indexRelationId,
@@ -500,8 +500,8 @@ DefineIndex(Oid relationId,
     * Now we must wait until no running transaction could have the table open
     * with the old list of indexes.  To do this, inquire which xacts
     * currently would conflict with ShareLock on the table -- ie, which ones
-    * have a lock that permits writing the table.  Then wait for each of
-    * these xacts to commit or abort.  Note we do not need to worry about
+    * have a lock that permits writing the table.  Then wait for each of
+    * these xacts to commit or abort.  Note we do not need to worry about
     * xacts that open the table for writing after this point; they will see
     * the new index when they open it.
     *
@@ -512,7 +512,7 @@ DefineIndex(Oid relationId,
     * error out properly.
     *
     * Note: GetLockConflicts() never reports our own xid, hence we need not
-    * check for that.  Also, prepared xacts are not reported, which is fine
+    * check for that.  Also, prepared xacts are not reported, which is fine
     * since they certainly aren't going to do anything more.
     */
    old_lockholders = GetLockConflicts(&heaplocktag, ShareLock);
@@ -529,7 +529,7 @@ DefineIndex(Oid relationId,
     * indexes.  We have waited out all the existing transactions and any new
     * transaction will have the new index in its list, but the index is still
     * marked as "not-ready-for-inserts".  The index is consulted while
-    * deciding HOT-safety though.  This arrangement ensures that no new HOT
+    * deciding HOT-safety though.  This arrangement ensures that no new HOT
     * chains can be created where the new tuple and the old tuple in the
     * chain have different index keys.
     *
@@ -595,7 +595,7 @@ DefineIndex(Oid relationId,
 
    /*
     * Now take the "reference snapshot" that will be used by validate_index()
-    * to filter candidate tuples.  Beware!  There might still be snapshots in
+    * to filter candidate tuples.  Beware!  There might still be snapshots in
     * use that treat some transaction as in-progress that our reference
     * snapshot treats as committed.  If such a recently-committed transaction
     * deleted tuples in the table, we will not include them in the index; yet
@@ -630,7 +630,7 @@ DefineIndex(Oid relationId,
 
    /*
     * The index is now valid in the sense that it contains all currently
-    * interesting tuples.  But since it might not contain tuples deleted just
+    * interesting tuples.  But since it might not contain tuples deleted just
     * before the reference snap was taken, we have to wait out any
     * transactions that might have older snapshots.  Obtain a list of VXIDs
     * of such transactions, and wait for them individually.
@@ -645,7 +645,7 @@ DefineIndex(Oid relationId,
     *
     * We can also exclude autovacuum processes and processes running manual
     * lazy VACUUMs, because they won't be fazed by missing index entries
-    * either.  (Manual ANALYZEs, however, can't be excluded because they
+    * either.  (Manual ANALYZEs, however, can't be excluded because they
     * might be within transactions that are going to do arbitrary operations
     * later.)
     *
@@ -755,7 +755,7 @@ CheckMutability(Expr *expr)
  *     Checks that the given partial-index predicate is valid.
  *
  * This used to also constrain the form of the predicate to forms that
- * indxpath.c could do something with. However, that seems overly
+ * indxpath.c could do something with.  However, that seems overly
  * restrictive.  One useful application of partial indexes is to apply
  * a UNIQUE constraint across a subset of a table, and in that scenario
  * any evaluatable predicate will work.  So accept any predicate here
@@ -955,7 +955,7 @@ GetIndexOpClass(List *opclass, Oid attrType,
     * 2000/07/30
     *
     * Release 7.2 renames timestamp_ops to timestamptz_ops, so suppress that
-    * too for awhile.  I'm starting to think we need a better approach. tgl
+    * too for awhile.  I'm starting to think we need a better approach. tgl
     * 2000/10/01
     *
     * Release 8.0 removes bigbox_ops (which was dead code for a long while
@@ -1027,7 +1027,7 @@ GetIndexOpClass(List *opclass, Oid attrType,
                        NameListToString(opclass), accessMethodName)));
 
    /*
-    * Verify that the index operator class accepts this datatype.  Note we
+    * Verify that the index operator class accepts this datatype.  Note we
     * will accept binary compatibility.
     */
    opClassId = HeapTupleGetOid(tuple);
@@ -1048,7 +1048,7 @@ GetIndexOpClass(List *opclass, Oid attrType,
  * GetDefaultOpClass
  *
  * Given the OIDs of a datatype and an access method, find the default
- * operator class, if any. Returns InvalidOid if there is none.
+ * operator class, if any.  Returns InvalidOid if there is none.
  */
 Oid
 GetDefaultOpClass(Oid type_id, Oid am_id)
@@ -1143,7 +1143,7 @@ GetDefaultOpClass(Oid type_id, Oid am_id)
  * Create a name for an implicitly created index, sequence, constraint, etc.
  *
  * The parameters are typically: the original table name, the original field
- * name, and a "type" string (such as "seq" or "pkey").    The field name
+ * name, and a "type" string (such as "seq" or "pkey").    The field name
  * and/or type can be NULL if not relevant.
  *
  * The result is a palloc'd string.
@@ -1151,7 +1151,7 @@ GetDefaultOpClass(Oid type_id, Oid am_id)
  * The basic result we want is "name1_name2_label", omitting "_name2" or
  * "_label" when those parameters are NULL.  However, we must generate
  * a name with less than NAMEDATALEN characters!  So, we truncate one or
- * both names if necessary to make a short-enough string.  The label part
+ * both names if necessary to make a short-enough string.  The label part
  * is never truncated (so it had better be reasonably short).
  *
  * The caller is responsible for checking uniqueness of the generated
index 811e84ad6f99bd6a83bd1ac5128c9670730ec2ff..5bd7fc0d6b4e50f9f37afda8e33c12db467401a4 100644 (file)
@@ -311,7 +311,7 @@ DefineOpClass(CreateOpClassStmt *stmt)
     * A minimum expectation therefore is that the caller have execute
     * privilege with grant option.  Since we don't have a way to make the
     * opclass go away if the grant option is revoked, we choose instead to
-    * require ownership of the functions.  It's also not entirely clear what
+    * require ownership of the functions.  It's also not entirely clear what
     * permissions should be required on the datatype, but ownership seems
     * like a safe choice.
     *
@@ -600,7 +600,7 @@ DefineOpClass(CreateOpClassStmt *stmt)
                    opclassoid, procedures, false);
 
    /*
-    * Create dependencies for the opclass proper.  Note: we do not create a
+    * Create dependencies for the opclass proper.  Note: we do not create a
     * dependency link to the AM, because we don't currently support DROP
     * ACCESS METHOD.
     */
@@ -2164,7 +2164,7 @@ AlterOpFamilyOwner_oid(Oid opfamilyOid, Oid newOwnerId)
 }
 
 /*
- * The first parameter is pg_opfamily, opened and suitably locked. The second
+ * The first parameter is pg_opfamily, opened and suitably locked.  The second
  * parameter is a copy of the tuple from pg_opfamily we want to modify.
  */
 static void
index daa8549e493fc99ce7db3e085ab87b6658b87436..3af0d28d0fba6bf8f50a82a14040b34628c5011e 100644 (file)
@@ -188,7 +188,7 @@ DefineOperator(List *names, List *parameters)
    functionOid = LookupFuncName(functionName, nargs, typeId, false);
 
    /*
-    * We require EXECUTE rights for the function.  This isn't strictly
+    * We require EXECUTE rights for the function.  This isn't strictly
     * necessary, since EXECUTE will be checked at any attempted use of the
     * operator, but it seems like a good idea anyway.
     */
index d6c1a580b7cfb0ad1758298fdf0a3a1a04081e7f..879f6aa367d4c8acd6b7f311a379bc9383266aaa 100644 (file)
@@ -4,7 +4,7 @@
  *   Utility commands affecting portals (that is, SQL cursor commands)
  *
  * Note: see also tcop/pquery.c, which implements portal operations for
- * the FE/BE protocol. This module uses pquery.c for some operations.
+ * the FE/BE protocol.  This module uses pquery.c for some operations.
  * And both modules depend on utils/mmgr/portalmem.c, which controls
  * storage management for portals (but doesn't run any queries in them).
  *
@@ -89,7 +89,7 @@ PerformCursorOpen(PlannedStmt *stmt, ParamListInfo params,
 
    /*----------
     * Also copy the outer portal's parameter list into the inner portal's
-    * memory context.  We want to pass down the parameter values in case we
+    * memory context.  We want to pass down the parameter values in case we
     * had a command like
     *      DECLARE c CURSOR FOR SELECT ... WHERE foo = $1
     * This will have been parsed using the outer parameter set and the
@@ -106,7 +106,7 @@ PerformCursorOpen(PlannedStmt *stmt, ParamListInfo params,
     *
     * If the user didn't specify a SCROLL type, allow or disallow scrolling
     * based on whether it would require any additional runtime overhead to do
-    * so.  Also, we disallow scrolling for FOR UPDATE cursors.
+    * so.  Also, we disallow scrolling for FOR UPDATE cursors.
     */
    portal->cursorOptions = cstmt->options;
    if (!(portal->cursorOptions & (CURSOR_OPT_SCROLL | CURSOR_OPT_NO_SCROLL)))
@@ -354,7 +354,7 @@ PersistHoldablePortal(Portal portal)
        ExecutorRewind(queryDesc);
 
        /*
-        * Change the destination to output to the tuplestore.  Note we tell
+        * Change the destination to output to the tuplestore.  Note we tell
         * the tuplestore receiver to detoast all data passed through it.
         */
        queryDesc->dest = CreateDestReceiver(DestTuplestore);
index c30ce359044e6940871e981866f22d107ad2f1df..276dacdeb28ed41ee8b0917bc943baaec5ecdc3c 100644 (file)
@@ -428,7 +428,7 @@ InitQueryHashTable(void)
  * copy.
  *
  * Exception: commandTag is presumed to be a pointer to a constant string,
- * or possibly NULL, so it need not be copied. Note that commandTag should
+ * or possibly NULL, so it need not be copied.  Note that commandTag should
  * be NULL only if the original query (before rewriting) was empty.
  */
 void
@@ -542,7 +542,7 @@ FetchPreparedStatementResultDesc(PreparedStatement *stmt)
 
 /*
  * Given a prepared statement that returns tuples, extract the query
- * targetlist. Returns NIL if the statement doesn't have a determinable
+ * targetlist.  Returns NIL if the statement doesn't have a determinable
  * targetlist.
  *
  * Note: this is pretty ugly, but since it's only used in corner cases like
index afb61981cecb1e70f31707703b327c0cc20413e2..c2e90f08d3df0adfbc8c0e1c9feabb2a75b25d62 100644 (file)
@@ -227,7 +227,7 @@ CreateProceduralLanguage(CreatePLangStmt *stmt)
        if (funcrettype != LANGUAGE_HANDLEROID)
        {
            /*
-            * We allow OPAQUE just so we can load old dump files.  When we
+            * We allow OPAQUE just so we can load old dump files.  When we
             * see a handler function declared OPAQUE, change it to
             * LANGUAGE_HANDLER.  (This is probably obsolete and removable?)
             */
index 4cc83eb018dda5c0f7dfcd6f80eb66af96d5034b..9cff0aa00ecf08dcaf7cfe6125b22429b32151bf 100644 (file)
@@ -65,7 +65,7 @@ CreateSchemaCommand(CreateSchemaStmt *stmt, const char *queryString)
     * To create a schema, must have schema-create privilege on the current
     * database and must be able to become the target role (this does not
     * imply that the target role itself must have create-schema privilege).
-    * The latter provision guards against "giveaway" attacks.  Note that a
+    * The latter provision guards against "giveaway" attacks.  Note that a
     * superuser will always have both of these privileges a fortiori.
     */
    aclresult = pg_database_aclcheck(MyDatabaseId, saved_uid, ACL_CREATE);
@@ -113,7 +113,7 @@ CreateSchemaCommand(CreateSchemaStmt *stmt, const char *queryString)
    /*
     * Examine the list of commands embedded in the CREATE SCHEMA command, and
     * reorganize them into a sequentially executable order with no forward
-    * references.  Note that the result is still a list of raw parsetrees ---
+    * references.  Note that the result is still a list of raw parsetrees ---
     * we cannot, in general, run parse analysis on one statement until we
     * have actually executed the prior ones.
     */
index cae981effe9b94dd913f14116460f8b45fb14845..5141e83a8575580c5b92aef652e74f99fb0e9c73 100644 (file)
@@ -59,7 +59,7 @@ typedef struct sequence_magic
  * rely on the relcache, since it's only, well, a cache, and may decide to
  * discard entries.)
  *
- * XXX We use linear search to find pre-existing SeqTable entries. This is
+ * XXX We use linear search to find pre-existing SeqTable entries.  This is
  * good when only a small number of sequences are touched in a session, but
  * would suck with many different sequences.  Perhaps use a hashtable someday.
  */
@@ -232,8 +232,8 @@ DefineSequence(CreateSeqStmt *seq)
     * Two special hacks here:
     *
     * 1. Since VACUUM does not process sequences, we have to force the tuple
-    * to have xmin = FrozenTransactionId now.  Otherwise it would become
-    * invisible to SELECTs after 2G transactions.  It is okay to do this
+    * to have xmin = FrozenTransactionId now.  Otherwise it would become
+    * invisible to SELECTs after 2G transactions.  It is okay to do this
     * because if the current transaction aborts, no other xact will ever
     * examine the sequence tuple anyway.
     *
@@ -490,7 +490,7 @@ nextval_internal(Oid relid)
    }
 
    /*
-    * Decide whether we should emit a WAL log record.  If so, force up the
+    * Decide whether we should emit a WAL log record.  If so, force up the
     * fetch count to grab SEQ_LOG_VALS more values than we actually need to
     * cache.  (These will then be usable without logging.)
     *
@@ -859,7 +859,7 @@ setval3_oid(PG_FUNCTION_ARGS)
  * Open the sequence and acquire AccessShareLock if needed
  *
  * If we haven't touched the sequence already in this transaction,
- * we need to acquire AccessShareLock. We arrange for the lock to
+ * we need to acquire AccessShareLock.  We arrange for the lock to
  * be owned by the top transaction, so that we don't need to do it
  * more than once per xact.
  */
index 1edf6c75533a2ef344e5263b0846de6990915109..a1ae344ef6361b88fddedfafc6b811ec5bc4c79a 100644 (file)
@@ -449,7 +449,7 @@ DefineRelation(CreateStmt *stmt, char relkind)
                             &inheritOids, &old_constraints, &parentOidCount);
 
    /*
-    * Create a tuple descriptor from the relation schema.  Note that this
+    * Create a tuple descriptor from the relation schema.  Note that this
     * deals with column names, types, and NOT NULL constraints, but not
     * default values or CHECK constraints; we handle those below.
     */
@@ -538,7 +538,7 @@ DefineRelation(CreateStmt *stmt, char relkind)
    CommandCounterIncrement();
 
    /*
-    * Open the new relation and acquire exclusive lock on it.  This isn't
+    * Open the new relation and acquire exclusive lock on it.  This isn't
     * really necessary for locking out other backends (since they can't see
     * the new rel anyway until we commit), but it keeps the lock manager from
     * complaining about deadlock risks.
@@ -830,10 +830,10 @@ ExecuteTruncate(TruncateStmt *stmt)
    }
 
    /*
-    * In CASCADE mode, suck in all referencing relations as well.  This
+    * In CASCADE mode, suck in all referencing relations as well.  This
     * requires multiple iterations to find indirectly-dependent relations. At
     * each phase, we need to exclusive-lock new rels before looking for their
-    * dependencies, else we might miss something.  Also, we check each rel as
+    * dependencies, else we might miss something.  Also, we check each rel as
     * soon as we open it, to avoid a faux pas such as holding lock for a long
     * time on a rel we have no permissions for.
     */
@@ -959,7 +959,7 @@ ExecuteTruncate(TruncateStmt *stmt)
 
        /*
         * Create a new empty storage file for the relation, and assign it as
-        * the relfilenode value.   The old storage file is scheduled for
+        * the relfilenode value.   The old storage file is scheduled for
         * deletion at commit.
         */
        setNewRelfilenode(rel, RecentXmin);
@@ -1029,7 +1029,7 @@ ExecuteTruncate(TruncateStmt *stmt)
 }
 
 /*
- * Check that a given rel is safe to truncate. Subroutine for ExecuteTruncate
+ * Check that a given rel is safe to truncate.  Subroutine for ExecuteTruncate
  */
 static void
 truncate_check_rel(Relation rel)
@@ -1367,7 +1367,7 @@ MergeAttributes(List *schema, List *supers, bool istemp,
 
        /*
         * Now copy the CHECK constraints of this parent, adjusting attnos
-        * using the completed newattno[] map.  Identically named constraints
+        * using the completed newattno[] map.  Identically named constraints
         * are merged if possible, else we throw error.
         */
        if (constr && constr->num_check > 0)
@@ -1422,7 +1422,7 @@ MergeAttributes(List *schema, List *supers, bool istemp,
 
        /*
         * Close the parent rel, but keep our AccessShareLock on it until xact
-        * commit.  That will prevent someone else from deleting or ALTERing
+        * commit.  That will prevent someone else from deleting or ALTERing
         * the parent before the child is committed.
         */
        heap_close(relation, NoLock);
@@ -1892,7 +1892,7 @@ renameatt(Oid myrelid,
 
        /*
         * Scan through index columns to see if there's any simple index
-        * entries for this attribute.  We ignore expressional entries.
+        * entries for this attribute.  We ignore expressional entries.
         */
        indextup = SearchSysCache(INDEXRELID,
                                  ObjectIdGetDatum(indexoid),
@@ -2040,7 +2040,7 @@ RenameRelationInternal(Oid myrelid, const char *newrelname, Oid namespaceId)
                        newrelname)));
 
    /*
-    * Update pg_class tuple with new relname.  (Scribbling on reltup is OK
+    * Update pg_class tuple with new relname.  (Scribbling on reltup is OK
     * because it's a copy...)
     */
    namestrcpy(&(relform->relname), newrelname);
@@ -2093,7 +2093,7 @@ RenameRelationInternal(Oid myrelid, const char *newrelname, Oid namespaceId)
  * We also reject these commands if there are any pending AFTER trigger events
  * for the rel.  This is certainly necessary for the rewriting variants of
  * ALTER TABLE, because they don't preserve tuple TIDs and so the pending
- * events would try to fetch the wrong tuples. It might be overly cautious
+ * events would try to fetch the wrong tuples.  It might be overly cautious
  * in other cases, but again it seems better to err on the side of paranoia.
  *
  * REINDEX calls this with "rel" referencing the index to be rebuilt; here
@@ -2136,23 +2136,23 @@ CheckTableNotInUse(Relation rel, const char *stmt)
  *     3. Scan table(s) to check new constraints, and optionally recopy
  *        the data into new table(s).
  * Phase 3 is not performed unless one or more of the subcommands requires
- * it. The intention of this design is to allow multiple independent
+ * it.  The intention of this design is to allow multiple independent
  * updates of the table schema to be performed with only one pass over the
  * data.
  *
- * ATPrepCmd performs phase 1. A "work queue" entry is created for
+ * ATPrepCmd performs phase 1.  A "work queue" entry is created for
  * each table to be affected (there may be multiple affected tables if the
  * commands traverse a table inheritance hierarchy).  Also we do preliminary
  * validation of the subcommands, including parse transformation of those
  * expressions that need to be evaluated with respect to the old table
  * schema.
  *
- * ATRewriteCatalogs performs phase 2 for each affected table. (Note that
+ * ATRewriteCatalogs performs phase 2 for each affected table.  (Note that
  * phases 2 and 3 normally do no explicit recursion, since phase 1 already
  * did it --- although some subcommands have to recurse in phase 2 instead.)
  * Certain subcommands need to be performed before others to avoid
  * unnecessary conflicts; for example, DROP COLUMN should come before
- * ADD COLUMN. Therefore phase 1 divides the subcommands into multiple
+ * ADD COLUMN.  Therefore phase 1 divides the subcommands into multiple
  * lists, one for each logical "pass" of phase 2.
  *
  * ATRewriteTables performs phase 3 for those tables that need it.
@@ -2453,7 +2453,7 @@ ATPrepCmd(List **wqueue, Relation rel, AlterTableCmd *cmd,
 /*
  * ATRewriteCatalogs
  *
- * Traffic cop for ALTER TABLE Phase 2 operations. Subcommands are
+ * Traffic cop for ALTER TABLE Phase 2 operations.  Subcommands are
  * dispatched in a "safe" execution order (designed to avoid unnecessary
  * conflicts).
  */
@@ -3628,7 +3628,7 @@ ATExecAddColumn(AlteredTableInfo *tab, Relation rel,
     * returned by AddRelationNewConstraints, so that the right thing happens
     * when a datatype's default applies.
     *
-    * We skip this step completely for views.  For a view, we can only get
+    * We skip this step completely for views.  For a view, we can only get
     * here from CREATE OR REPLACE VIEW, which historically doesn't set up
     * defaults, not even for domain-typed columns.  And in any case we
     * mustn't invoke Phase 3 on a view, since it has no storage.
@@ -3711,7 +3711,7 @@ add_column_datatype_dependency(Oid relid, int32 attnum, Oid typid)
 /*
  * ALTER TABLE SET WITH OIDS
  *
- * Basically this is an ADD COLUMN for the special OID column. We have
+ * Basically this is an ADD COLUMN for the special OID column.  We have
  * to cons up a ColumnDef node because the ADD COLUMN code needs one.
  */
 static void
@@ -4090,7 +4090,7 @@ ATExecSetStorage(Relation rel, const char *colName, Node *newValue)
  *
  * DROP COLUMN cannot use the normal ALTER TABLE recursion mechanism,
  * because we have to decide at runtime whether to recurse or not depending
- * on whether attinhcount goes to zero or not. (We can't check this in a
+ * on whether attinhcount goes to zero or not.  (We can't check this in a
  * static pre-pass because it won't handle multiple inheritance situations
  * correctly.)
  */
@@ -4515,7 +4515,7 @@ ATAddCheckConstraint(List **wqueue, AlteredTableInfo *tab, Relation rel,
 /*
  * Add a foreign-key constraint to a single table
  *
- * Subroutine for ATExecAddConstraint. Must already hold exclusive
+ * Subroutine for ATExecAddConstraint.  Must already hold exclusive
  * lock on the rel, and have done appropriate validity checks for it.
  * We do permissions checks here, however.
  */
@@ -4640,7 +4640,7 @@ ATAddForeignKeyConstraint(AlteredTableInfo *tab, Relation rel,
     *
     * Note that we have to be careful about the difference between the actual
     * PK column type and the opclass' declared input type, which might be
-    * only binary-compatible with it.  The declared opcintype is the right
+    * only binary-compatible with it.  The declared opcintype is the right
     * thing to probe pg_amop with.
     */
    if (numfks != numpks)
@@ -4854,10 +4854,10 @@ transformColumnNameList(Oid relId, List *colList,
  * transformFkeyGetPrimaryKey -
  *
  * Look up the names, attnums, and types of the primary key attributes
- * for the pkrel.  Also return the index OID and index opclasses of the
+ * for the pkrel.  Also return the index OID and index opclasses of the
  * index supporting the primary key.
  *
- * All parameters except pkrel are output parameters.  Also, the function
+ * All parameters except pkrel are output parameters.  Also, the function
  * return value is the number of attributes in the primary key.
  *
  * Used when the column list in the REFERENCES specification is omitted.
@@ -5644,7 +5644,7 @@ ATPrepAlterColumnType(List **wqueue,
    ReleaseSysCache(tuple);
 
    /*
-    * The recursion case is handled by ATSimpleRecursion.  However, if we are
+    * The recursion case is handled by ATSimpleRecursion.  However, if we are
     * told not to recurse, there had better not be any child tables; else the
     * alter would put them out of step.
     */
@@ -5709,7 +5709,7 @@ ATExecAlterColumnType(AlteredTableInfo *tab, Relation rel,
     *
     * We remove any implicit coercion steps at the top level of the old
     * default expression; this has been agreed to satisfy the principle of
-    * least surprise.  (The conversion to the new column type should act like
+    * least surprise.  (The conversion to the new column type should act like
     * it started from what the user sees as the stored expression, and the
     * implicit coercions aren't going to be shown.)
     */
@@ -5738,7 +5738,7 @@ ATExecAlterColumnType(AlteredTableInfo *tab, Relation rel,
     * and record enough information to let us recreate the objects.
     *
     * The actual recreation does not happen here, but only after we have
-    * performed all the individual ALTER TYPE operations.  We have to save
+    * performed all the individual ALTER TYPE operations.  We have to save
     * the info before executing ALTER TYPE, though, else the deparser will
     * get confused.
     *
@@ -5947,7 +5947,7 @@ ATExecAlterColumnType(AlteredTableInfo *tab, Relation rel,
    heap_close(depRel, RowExclusiveLock);
 
    /*
-    * Here we go --- change the recorded column type.  (Note heapTup is a
+    * Here we go --- change the recorded column type.  (Note heapTup is a
     * copy of the syscache entry, so okay to scribble on.)
     */
    attTup->atttypid = targettype;
@@ -6014,7 +6014,7 @@ ATPostAlterTypeCleanup(List **wqueue, AlteredTableInfo *tab)
 
    /*
     * Re-parse the index and constraint definitions, and attach them to the
-    * appropriate work queue entries.  We do this before dropping because in
+    * appropriate work queue entries.  We do this before dropping because in
     * the case of a FOREIGN KEY constraint, we might not yet have exclusive
     * lock on the table the constraint is attached to, and we need to get
     * that before dropping.  It's safe because the parser won't actually look
@@ -6939,7 +6939,7 @@ copy_relation_data(SMgrRelation src, SMgrRelation dst,
            log_newpage(&dst->smgr_rnode, forkNum, blkno, page);
 
        /*
-        * Now write the page.  We say isTemp = true even if it's not a temp
+        * Now write the page.  We say isTemp = true even if it's not a temp
         * rel, because there's no need for smgr to schedule an fsync for this
         * write; we'll do it ourselves below.
         */
@@ -7099,7 +7099,7 @@ ATExecAddInherit(Relation child_rel, RangeVar *parent)
    MergeConstraintsIntoExisting(child_rel, parent_rel);
 
    /*
-    * OK, it looks valid.  Make the catalog entries that show inheritance.
+    * OK, it looks valid.  Make the catalog entries that show inheritance.
     */
    StoreCatalogInheritance1(RelationGetRelid(child_rel),
                             RelationGetRelid(parent_rel),
@@ -8032,7 +8032,7 @@ AtEOXact_on_commit_actions(bool isCommit)
  * Post-subcommit or post-subabort cleanup for ON COMMIT management.
  *
  * During subabort, we can immediately remove entries created during this
- * subtransaction. During subcommit, just relabel entries marked during
+ * subtransaction.  During subcommit, just relabel entries marked during
  * this subtransaction as being the parent's responsibility.
  */
 void
index 069b456d0d5e056c1342d9409742c0e3234cabea..30284bfab15c43601745018155ff0a5ff859c97f 100644 (file)
@@ -28,7 +28,7 @@
  * To allow CREATE DATABASE to give a new database a default tablespace
  * that's different from the template database's default, we make the
  * provision that a zero in pg_class.reltablespace means the database's
- * default tablespace. Without this, CREATE DATABASE would have to go in
+ * default tablespace.  Without this, CREATE DATABASE would have to go in
  * and munge the system catalogs of the new database.
  *
  *
@@ -300,7 +300,7 @@ CreateTableSpace(CreateTableSpaceStmt *stmt)
    recordDependencyOnOwner(TableSpaceRelationId, tablespaceoid, ownerId);
 
    /*
-    * Attempt to coerce target directory to safe permissions.  If this fails,
+    * Attempt to coerce target directory to safe permissions.  If this fails,
     * it doesn't exist or has the wrong owner.
     */
    if (chmod(location, 0700) != 0)
@@ -319,7 +319,7 @@ CreateTableSpace(CreateTableSpaceStmt *stmt)
                        location)));
 
    /*
-    * Create the PG_VERSION file in the target directory.  This has several
+    * Create the PG_VERSION file in the target directory.  This has several
     * purposes: to make sure we can write in the directory, to prevent
     * someone from creating another tablespace pointing at the same directory
     * (the emptiness check above will fail), and to label tablespace
@@ -472,7 +472,7 @@ DropTableSpace(DropTableSpaceStmt *stmt)
         * Not all files deleted?  However, there can be lingering empty files
         * in the directories, left behind by for example DROP TABLE, that
         * have been scheduled for deletion at next checkpoint (see comments
-        * in mdunlink() for details).  We could just delete them immediately,
+        * in mdunlink() for details).  We could just delete them immediately,
         * but we can't tell them apart from important data files that we
         * mustn't delete.  So instead, we force a checkpoint which will clean
         * out any lingering files, and try again.
@@ -564,7 +564,7 @@ remove_tablespace_directories(Oid tablespaceoid, bool redo)
     *
     * If redo is true then ENOENT is a likely outcome here, and we allow it
     * to pass without comment.  In normal operation we still allow it, but
-    * with a warning.  This is because even though ProcessUtility disallows
+    * with a warning.  This is because even though ProcessUtility disallows
     * DROP TABLESPACE in a transaction block, it's possible that a previous
     * DROP failed and rolled back after removing the tablespace directories
     * and symlink.  We want to allow a new DROP attempt to succeed at
@@ -919,7 +919,7 @@ assign_default_tablespace(const char *newval, bool doit, GucSource source)
 {
    /*
     * If we aren't inside a transaction, we cannot do database access so
-    * cannot verify the name.  Must accept the value on faith.
+    * cannot verify the name.  Must accept the value on faith.
     */
    if (IsTransactionState())
    {
@@ -1022,7 +1022,7 @@ assign_temp_tablespaces(const char *newval, bool doit, GucSource source)
 
    /*
     * If we aren't inside a transaction, we cannot do database access so
-    * cannot verify the individual names.  Must accept the list on faith.
+    * cannot verify the individual names.  Must accept the list on faith.
     * Fortunately, there's then also no need to pass the data to fd.c.
     */
    if (IsTransactionState())
@@ -1303,7 +1303,7 @@ tblspc_redo(XLogRecPtr lsn, XLogRecord *record)
        char       *linkloc;
 
        /*
-        * Attempt to coerce target directory to safe permissions.  If this
+        * Attempt to coerce target directory to safe permissions.  If this
         * fails, it doesn't exist or has the wrong owner.
         */
        if (chmod(location, 0700) != 0)
index a042588a1afca5d9f61b173987fa42ed6c05b903..fa041867adf3cc75c78101fa2d60b345c85d61e4 100644 (file)
@@ -78,7 +78,7 @@ static void AfterTriggerSaveEvent(ResultRelInfo *relinfo, int event,
  *
  * constraintOid, if nonzero, says that this trigger is being created
  * internally to implement that constraint.  A suitable pg_depend entry will
- * be made to link the trigger to that constraint. constraintOid is zero when
+ * be made to link the trigger to that constraint.  constraintOid is zero when
  * executing a user-entered CREATE TRIGGER command.
  *
  * If checkPermissions is true we require ACL_TRIGGER permissions on the
@@ -185,7 +185,7 @@ CreateTrigger(CreateTrigStmt *stmt, Oid relOid, Oid refRelOid,
    if (funcrettype != TRIGGEROID)
    {
        /*
-        * We allow OPAQUE just so we can load old dump files.  When we see a
+        * We allow OPAQUE just so we can load old dump files.  When we see a
         * trigger function declared OPAQUE, change it to TRIGGER.
         */
        if (funcrettype == OPAQUEOID)
@@ -207,7 +207,7 @@ CreateTrigger(CreateTrigStmt *stmt, Oid relOid, Oid refRelOid,
     * references one of the built-in RI_FKey trigger functions, assume it is
     * from a dump of a pre-7.3 foreign key constraint, and take steps to
     * convert this legacy representation into a regular foreign key
-    * constraint.  Ugly, but necessary for loading old dump files.
+    * constraint.  Ugly, but necessary for loading old dump files.
     */
    if (stmt->isconstraint && !OidIsValid(constraintOid) &&
        list_length(stmt->args) >= 6 &&
@@ -411,7 +411,7 @@ CreateTrigger(CreateTrigStmt *stmt, Oid relOid, Oid refRelOid,
    {
        /*
         * It's for a constraint, so make it an internal dependency of the
-        * constraint.  We can skip depending on the relations, as there'll be
+        * constraint.  We can skip depending on the relations, as there'll be
         * an indirect dependency via the constraint.
         */
        referenced.classId = ConstraintRelationId;
@@ -451,7 +451,7 @@ CreateTrigger(CreateTrigStmt *stmt, Oid relOid, Oid refRelOid,
  * full-fledged foreign key constraints.
  *
  * The conversion is complex because a pre-7.3 foreign key involved three
- * separate triggers, which were reported separately in dumps. While the
+ * separate triggers, which were reported separately in dumps.  While the
  * single trigger on the referencing table adds no new information, we need
  * to know the trigger functions of both of the triggers on the referenced
  * table to build the constraint declaration.  Also, due to lack of proper
@@ -2290,7 +2290,7 @@ typedef SetConstraintStateData *SetConstraintState;
  * Per-trigger-event data
  *
  * The actual per-event data, AfterTriggerEventData, includes DONE/IN_PROGRESS
- * status bits and one or two tuple CTIDs. Each event record also has an
+ * status bits and one or two tuple CTIDs.  Each event record also has an
  * associated AfterTriggerSharedData that is shared across all instances
  * of similar events within a "chunk".
  *
@@ -2304,7 +2304,7 @@ typedef SetConstraintStateData *SetConstraintState;
  * Although this is mutable state, we can keep it in AfterTriggerSharedData
  * because all instances of the same type of event in a given event list will
  * be fired at the same time, if they were queued between the same firing
- * cycles. So we need only ensure that ats_firing_id is zero when attaching
+ * cycles.  So we need only ensure that ats_firing_id is zero when attaching
  * a new event to an existing AfterTriggerSharedData record.
  */
 typedef uint32 TriggerFlags;
@@ -2351,7 +2351,7 @@ typedef struct AfterTriggerEventDataOneCtid
 /*
  * To avoid palloc overhead, we keep trigger events in arrays in successively-
  * larger chunks (a slightly more sophisticated version of an expansible
- * array). The space between CHUNK_DATA_START and freeptr is occupied by
+ * array).  The space between CHUNK_DATA_START and freeptr is occupied by
  * AfterTriggerEventData records; the space between endfree and endptr is
  * occupied by AfterTriggerSharedData records.
  */
@@ -2393,7 +2393,7 @@ typedef struct AfterTriggerEventList
  *
  * firing_counter is incremented for each call of afterTriggerInvokeEvents.
  * We mark firable events with the current firing cycle's ID so that we can
- * tell which ones to work on. This ensures sane behavior if a trigger
+ * tell which ones to work on.  This ensures sane behavior if a trigger
  * function chooses to do SET CONSTRAINTS: the inner SET CONSTRAINTS will
  * only fire those events that weren't already scheduled for firing.
  *
@@ -2401,7 +2401,7 @@ typedef struct AfterTriggerEventList
  * This is saved and restored across failed subtransactions.
  *
  * events is the current list of deferred events.  This is global across
- * all subtransactions of the current transaction. In a subtransaction
+ * all subtransactions of the current transaction.  In a subtransaction
  * abort, we know that the events added by the subtransaction are at the
  * end of the list, so it is relatively easy to discard them.  The event
  * list chunks themselves are stored in event_cxt.
@@ -2429,12 +2429,12 @@ typedef struct AfterTriggerEventList
  * which we similarly use to clean up at subtransaction abort.
  *
  * firing_stack is a stack of copies of subtransaction-start-time
- * firing_counter. We use this to recognize which deferred triggers were
+ * firing_counter.  We use this to recognize which deferred triggers were
  * fired (or marked for firing) within an aborted subtransaction.
  *
  * We use GetCurrentTransactionNestLevel() to determine the correct array
  * index in these stacks.  maxtransdepth is the number of allocated entries in
- * each stack. (By not keeping our own stack pointer, we can avoid trouble
+ * each stack.  (By not keeping our own stack pointer, we can avoid trouble
  * in cases where errors during subxact abort cause multiple invocations
  * of AfterTriggerEndSubXact() at the same nesting depth.)
  */
@@ -2702,7 +2702,7 @@ afterTriggerRestoreEventList(AfterTriggerEventList *events,
  * single trigger function.
  *
  * Frequently, this will be fired many times in a row for triggers of
- * a single relation.  Therefore, we cache the open relation and provide
+ * a single relation.  Therefore, we cache the open relation and provide
  * fmgr lookup cache space at the caller level.  (For triggers fired at
  * the end of a query, we can even piggyback on the executor's state.)
  *
@@ -3219,7 +3219,7 @@ AfterTriggerFireDeferred(void)
    }
 
    /*
-    * Run all the remaining triggers.  Loop until they are all gone, in case
+    * Run all the remaining triggers.  Loop until they are all gone, in case
     * some trigger queues more for us to do.
     */
    while (afterTriggerMarkEvents(events, NULL, false))
@@ -3282,7 +3282,7 @@ AfterTriggerBeginSubXact(void)
    int         my_level = GetCurrentTransactionNestLevel();
 
    /*
-    * Ignore call if the transaction is in aborted state.  (Probably
+    * Ignore call if the transaction is in aborted state.  (Probably
     * shouldn't happen?)
     */
    if (afterTriggers == NULL)
@@ -3361,7 +3361,7 @@ AfterTriggerEndSubXact(bool isCommit)
    CommandId   subxact_firing_id;
 
    /*
-    * Ignore call if the transaction is in aborted state.  (Probably
+    * Ignore call if the transaction is in aborted state.  (Probably
     * unneeded)
     */
    if (afterTriggers == NULL)
@@ -3493,7 +3493,7 @@ SetConstraintStateCopy(SetConstraintState origstate)
 }
 
 /*
- * Add a per-trigger item to a SetConstraintState. Returns possibly-changed
+ * Add a per-trigger item to a SetConstraintState.  Returns possibly-changed
  * pointer to the state object (it will change if we have to repalloc).
  */
 static SetConstraintState
@@ -3599,7 +3599,7 @@ AfterTriggerSetState(ConstraintsSetStmt *stmt)
 
            /*
             * If we're given the schema name with the constraint, look only
-            * in that schema.  If given a bare constraint name, use the
+            * in that schema.  If given a bare constraint name, use the
             * search path to find the first matching constraint.
             */
            if (constraint->schemaname)
@@ -3766,7 +3766,7 @@ AfterTriggerSetState(ConstraintsSetStmt *stmt)
 
            /*
             * Make sure a snapshot has been established in case trigger
-            * functions need one.  Note that we avoid setting a snapshot if
+            * functions need one.  Note that we avoid setting a snapshot if
             * we don't find at least one trigger that has to be fired now.
             * This is so that BEGIN; SET CONSTRAINTS ...; SET TRANSACTION
             * ISOLATION LEVEL SERIALIZABLE; ... works properly.  (If we are
@@ -3826,7 +3826,7 @@ AfterTriggerPendingOnRel(Oid relid)
        AfterTriggerShared evtshared = GetTriggerSharedData(event);
 
        /*
-        * We can ignore completed events.  (Even if a DONE flag is rolled
+        * We can ignore completed events.  (Even if a DONE flag is rolled
         * back by subxact abort, it's OK because the effects of the TRUNCATE
         * or whatever must get rolled back too.)
         */
index f791c53fe4d3f2f92d1e4db063ace9933b76895f..706c8a6be0a74fbf1e20571acbe5c61c4830372b 100644 (file)
@@ -490,8 +490,8 @@ DefineType(List *names, List *parameters)
        analyzeOid = findTypeAnalyzeFunction(analyzeName, typoid);
 
    /*
-    * Check permissions on functions.  We choose to require the creator/owner
-    * of a type to also own the underlying functions.  Since creating a type
+    * Check permissions on functions.  We choose to require the creator/owner
+    * of a type to also own the underlying functions.  Since creating a type
     * is tantamount to granting public execute access on the functions, the
     * minimum sane check would be for execute-with-grant-option.  But we
     * don't have a way to make the type go away if the grant option is
@@ -781,7 +781,7 @@ DefineDomain(CreateDomainStmt *stmt)
                       get_namespace_name(domainNamespace));
 
    /*
-    * Check for collision with an existing type name.  If there is one and
+    * Check for collision with an existing type name.  If there is one and
     * it's an autogenerated array, we can rename it out of the way.
     */
    old_type_oid = GetSysCacheOid(TYPENAMENSP,
@@ -1107,7 +1107,7 @@ DefineEnum(CreateEnumStmt *stmt)
                       get_namespace_name(enumNamespace));
 
    /*
-    * Check for collision with an existing type name.  If there is one and
+    * Check for collision with an existing type name.  If there is one and
     * it's an autogenerated array, we can rename it out of the way.
     */
    old_type_oid = GetSysCacheOid(TYPENAMENSP,
@@ -1725,7 +1725,7 @@ AlterDomainNotNull(List *names, bool notNull)
    }
 
    /*
-    * Okay to update pg_type row.  We can scribble on typTup because it's a
+    * Okay to update pg_type row.  We can scribble on typTup because it's a
     * copy.
     */
    typTup->typnotnull = notNull;
@@ -1897,7 +1897,7 @@ AlterDomainAddConstraint(List *names, Node *newConstraint)
 
    /*
     * Since all other constraint types throw errors, this must be a check
-    * constraint.  First, process the constraint expression and add an entry
+    * constraint.  First, process the constraint expression and add an entry
     * to pg_constraint.
     */
 
@@ -2125,7 +2125,7 @@ get_rels_with_domain(Oid domainOid, LOCKMODE lockmode)
            continue;
 
        /*
-        * Okay, add column to result.  We store the columns in column-number
+        * Okay, add column to result.  We store the columns in column-number
         * order; this is just a hack to improve predictability of regression
         * test output ...
         */
@@ -2213,7 +2213,7 @@ domainAddConstraint(Oid domainOid, Oid domainNamespace, Oid baseTypeOid,
 
    /*
     * Set up a CoerceToDomainValue to represent the occurrence of VALUE in
-    * the expression.  Note that it will appear to have the type of the base
+    * the expression.  Note that it will appear to have the type of the base
     * type, not the domain.  This seems correct since within the check
     * expression, we should not assume the input value can be considered a
     * member of the domain.
@@ -2593,7 +2593,7 @@ AlterTypeOwner(List *names, Oid newOwnerId)
 
        /*
         * If it's a composite type, invoke ATExecChangeOwner so that we fix
-        * up the pg_class entry properly.  That will call back to
+        * up the pg_class entry properly.  That will call back to
         * AlterTypeOwnerInternal to take care of the pg_type entry(s).
         */
        if (typTup->typtype == TYPTYPE_COMPOSITE)
@@ -2716,7 +2716,7 @@ AlterTypeNamespace(List *names, const char *newschema)
  * Caller must have already checked privileges.
  *
  * The function automatically recurses to process the type's array type,
- * if any. isImplicitArray should be TRUE only when doing this internal
+ * if any.  isImplicitArray should be TRUE only when doing this internal
  * recursion (outside callers must never try to move an array type directly).
  *
  * If errorOnTableType is TRUE, the function errors out if the type is
index 180d9c709ebdef09fa266af98e42a4445e275537..23dc6481a3bc239cb76cc1d29adfcad4814ebb66 100644 (file)
@@ -938,7 +938,7 @@ DropRole(DropRoleStmt *stmt)
        ReleaseSysCache(tuple);
 
        /*
-        * Remove role from the pg_auth_members table.  We have to remove all
+        * Remove role from the pg_auth_members table.  We have to remove all
         * tuples that show it as either a role or a member.
         *
         * XXX what about grantor entries?  Maybe we should do one heap scan.
@@ -1036,7 +1036,7 @@ RenameRole(const char *oldname, const char *newname)
     * XXX Client applications probably store the session user somewhere, so
     * renaming it could cause confusion.  On the other hand, there may not be
     * an actual problem besides a little confusion, so think about this and
-    * decide.  Same for SET ROLE ... we don't restrict renaming the current
+    * decide.  Same for SET ROLE ... we don't restrict renaming the current
     * effective userid, though.
     */
 
@@ -1302,7 +1302,7 @@ AddRoleMems(const char *rolename, Oid roleid,
 
    /*
     * Check permissions: must have createrole or admin option on the role to
-    * be changed.  To mess with a superuser role, you gotta be superuser.
+    * be changed.  To mess with a superuser role, you gotta be superuser.
     */
    if (superuser_arg(roleid))
    {
@@ -1450,7 +1450,7 @@ DelRoleMems(const char *rolename, Oid roleid,
 
    /*
     * Check permissions: must have createrole or admin option on the role to
-    * be changed.  To mess with a superuser role, you gotta be superuser.
+    * be changed.  To mess with a superuser role, you gotta be superuser.
     */
    if (superuser_arg(roleid))
    {
index dbf10401b66fa6a133202cce499b0fac0d4b3cf4..43fdac88b5b4c210a3d39a6df44e932e57088e3e 100644 (file)
@@ -4,7 +4,7 @@
  *   The postgres vacuum cleaner.
  *
  * This file includes the "full" version of VACUUM, as well as control code
- * used by all three of full VACUUM, lazy VACUUM, and ANALYZE. See
+ * used by all three of full VACUUM, lazy VACUUM, and ANALYZE.  See
  * vacuumlazy.c and analyze.c for the rest of the code for the latter two.
  *
  *
@@ -314,7 +314,7 @@ vacuum(VacuumStmt *vacstmt, Oid relid, bool do_toast,
     * certainly not be the desired behavior.  (This only applies to VACUUM
     * FULL, though.  We could in theory run lazy VACUUM inside a transaction
     * block, but we choose to disallow that case because we'd rather commit
-    * as soon as possible after finishing the vacuum.  This is mainly so that
+    * as soon as possible after finishing the vacuum.  This is mainly so that
     * we can let go the AccessExclusiveLock that we may be holding.)
     *
     * ANALYZE (without VACUUM) can run either way.
@@ -604,9 +604,9 @@ vacuum_set_xid_limits(int freeze_min_age,
    TransactionId safeLimit;
 
    /*
-    * We can always ignore processes running lazy vacuum.  This is because we
+    * We can always ignore processes running lazy vacuum.  This is because we
     * use these values only for deciding which tuples we must keep in the
-    * tables.  Since lazy vacuum doesn't write its XID anywhere, it's safe to
+    * tables.  Since lazy vacuum doesn't write its XID anywhere, it's safe to
     * ignore it.  In theory it could be problematic to ignore lazy vacuums on
     * a full vacuum, but keep in mind that only one vacuum process can be
     * working on a particular table at any time, and that each vacuum is
@@ -832,7 +832,7 @@ vac_update_relstats(Relation relation,
 
    /*
     * If we have discovered that there are no indexes, then there's no
-    * primary key either.  This could be done more thoroughly...
+    * primary key either.  This could be done more thoroughly...
     */
    if (!hasindex)
    {
@@ -882,7 +882,7 @@ vac_update_relstats(Relation relation,
  *     advance pg_database.datfrozenxid, also try to truncate pg_clog.
  *
  *     We violate transaction semantics here by overwriting the database's
- *     existing pg_database tuple with the new value.  This is reasonably
+ *     existing pg_database tuple with the new value.  This is reasonably
  *     safe since the new value is correct whether or not this transaction
  *     commits.  As with vac_update_relstats, this avoids leaving dead tuples
  *     behind after a VACUUM.
@@ -988,7 +988,7 @@ vac_update_datfrozenxid(void)
  *     Also update the XID wrap limit info maintained by varsup.c.
  *
  *     The passed XID is simply the one I just wrote into my pg_database
- *     entry.  It's used to initialize the "min" calculation.
+ *     entry.  It's used to initialize the "min" calculation.
  *
  *     This routine is shared by full and lazy VACUUM.  Note that it's
  *     only invoked when we've managed to change our DB's datfrozenxid
@@ -1079,7 +1079,7 @@ vac_truncate_clog(TransactionId frozenXID)
  * vacuum_rel() -- vacuum one heap relation
  *
  *     Doing one heap at a time incurs extra overhead, since we need to
- *     check that the heap exists again just before we vacuum it.  The
+ *     check that the heap exists again just before we vacuum it.  The
  *     reason that we do this is so that vacuuming can be spread across
  *     many small transactions.  Otherwise, two-phase locking would require
  *     us to lock the entire database during one pass of the vacuum cleaner.
@@ -1137,7 +1137,7 @@ vacuum_rel(Oid relid, VacuumStmt *vacstmt, bool do_toast, bool for_wraparound)
    }
 
    /*
-    * Check for user-requested abort.  Note we want this to be inside a
+    * Check for user-requested abort.  Note we want this to be inside a
     * transaction, so xact.c doesn't issue useless WARNING.
     */
    CHECK_FOR_INTERRUPTS();
@@ -1169,7 +1169,7 @@ vacuum_rel(Oid relid, VacuumStmt *vacstmt, bool do_toast, bool for_wraparound)
     *
     * We allow the user to vacuum a table if he is superuser, the table
     * owner, or the database owner (but in the latter case, only if it's not
-    * a shared relation).  pg_class_ownercheck includes the superuser case.
+    * a shared relation).  pg_class_ownercheck includes the superuser case.
     *
     * Note we choose to treat permissions failure as a WARNING and keep
     * trying to vacuum the rest of the DB --- is this appropriate?
@@ -1290,7 +1290,7 @@ vacuum_rel(Oid relid, VacuumStmt *vacstmt, bool do_toast, bool for_wraparound)
    /*
     * If the relation has a secondary toast rel, vacuum that too while we
     * still hold the session lock on the master table.  Note however that
-    * "analyze" will not get done on the toast table.  This is good, because
+    * "analyze" will not get done on the toast table.  This is good, because
     * the toaster always uses hardcoded index access and statistics are
     * totally unimportant for toast relations.
     */
@@ -1498,10 +1498,10 @@ scan_heap(VRelStats *vacrelstats, Relation onerel,
         * dirty.  To ensure that invalid data doesn't get written to disk, we
         * must take exclusive buffer lock wherever we potentially modify
         * pages.  In fact, we insist on cleanup lock so that we can safely
-        * call heap_page_prune().  (This might be overkill, since the
+        * call heap_page_prune().  (This might be overkill, since the
         * bgwriter pays no attention to individual tuples, but on the other
         * hand it's unlikely that the bgwriter has this particular page
-        * pinned at this instant.  So violating the coding rule would buy us
+        * pinned at this instant.  So violating the coding rule would buy us
         * little anyway.)
         */
        LockBufferForCleanup(buf);
@@ -1619,7 +1619,7 @@ scan_heap(VRelStats *vacrelstats, Relation onerel,
                     * live tuples have XMIN_COMMITTED set --- see comments in
                     * repair_frag()'s walk-along-page loop.  Use of async
                     * commit may prevent HeapTupleSatisfiesVacuum from
-                    * setting the bit for a recently committed tuple.  Rather
+                    * setting the bit for a recently committed tuple.  Rather
                     * than trying to handle this corner case, we just give up
                     * and don't shrink.
                     */
@@ -1764,7 +1764,7 @@ scan_heap(VRelStats *vacrelstats, Relation onerel,
 
                /*
                 * Here we are building a temporary copy of the page with dead
-                * tuples removed.  Below we will apply
+                * tuples removed.  Below we will apply
                 * PageRepairFragmentation to the copy, so that we can
                 * determine how much space will be available after removal of
                 * dead tuples.  But note we are NOT changing the real page
@@ -1828,7 +1828,7 @@ scan_heap(VRelStats *vacrelstats, Relation onerel,
        /*
         * Add the page to vacuum_pages if it requires reaping, and add it to
         * fraged_pages if it has a useful amount of free space.  "Useful"
-        * means enough for a minimal-sized tuple.  But we don't know that
+        * means enough for a minimal-sized tuple.  But we don't know that
         * accurately near the start of the relation, so add pages
         * unconditionally if they have >= BLCKSZ/10 free space.  Also
         * forcibly add pages with no live tuples, to avoid confusing the
@@ -2242,7 +2242,7 @@ repair_frag(VRelStats *vacrelstats, Relation onerel,
             * xmin xact completes.
             *
             * To be on the safe side, we abandon the repair_frag process if
-            * we cannot find the parent tuple in vtlinks.  This may be overly
+            * we cannot find the parent tuple in vtlinks.  This may be overly
             * conservative; AFAICS it would be safe to move the chain.
             *
             * Also, because we distinguish DEAD and RECENTLY_DEAD tuples
@@ -2347,7 +2347,7 @@ repair_frag(VRelStats *vacrelstats, Relation onerel,
                    }
 
                    /*
-                    * Must check for DEAD or MOVED_IN tuple, too.  This could
+                    * Must check for DEAD or MOVED_IN tuple, too.  This could
                     * potentially update hint bits, so we'd better hold the
                     * buffer content lock.
                     */
@@ -2520,7 +2520,7 @@ repair_frag(VRelStats *vacrelstats, Relation onerel,
                if (chain_move_failed)
                {
                    /*
-                    * Undo changes to offsets_used state.  We don't bother
+                    * Undo changes to offsets_used state.  We don't bother
                     * cleaning up the amount-free state, since we're not
                     * going to do any further tuple motion.
                     */
@@ -2798,7 +2798,7 @@ repair_frag(VRelStats *vacrelstats, Relation onerel,
         * that VACUUM FULL always uses sync commit, too.)  The transaction
         * continues to be shown as running in the ProcArray.
         *
-        * XXX This desperately needs to be revisited.  Any failure after this
+        * XXX This desperately needs to be revisited.  Any failure after this
         * point will result in a PANIC "cannot abort transaction nnn, it was
         * already committed"!  As a precaution, we prevent cancel interrupts
         * after this point to mitigate this problem; caller is responsible for
@@ -3535,7 +3535,7 @@ scan_index(Relation indrel, double num_tuples)
              pg_rusage_show(&ru0))));
 
    /*
-    * Check for tuple count mismatch.  If the index is partial, then it's OK
+    * Check for tuple count mismatch.  If the index is partial, then it's OK
     * for it to have fewer tuples than the heap; else we got trouble.
     */
    if (!stats->estimated_count &&
@@ -3614,7 +3614,7 @@ vacuum_index(VacPageList vacpagelist, Relation indrel,
                       pg_rusage_show(&ru0))));
 
    /*
-    * Check for tuple count mismatch.  If the index is partial, then it's OK
+    * Check for tuple count mismatch.  If the index is partial, then it's OK
     * for it to have fewer tuples than the heap; else we got trouble.
     */
    if (!stats->estimated_count &&
@@ -3763,7 +3763,7 @@ vpage_insert(VacPageList vacpagelist, VacPage vpnew)
 /*
  * vac_bsearch: just like standard C library routine bsearch(),
  * except that we first test to see whether the target key is outside
- * the range of the table entries. This case is handled relatively slowly
+ * the range of the table entries.  This case is handled relatively slowly
  * by the normal binary search algorithm (ie, no faster than any other key)
  * but it occurs often enough in VACUUM to be worth optimizing.
  */
@@ -3854,7 +3854,7 @@ vac_cmp_vtlinks(const void *left, const void *right)
 
 /*
  * Open all the vacuumable indexes of the given relation, obtaining the
- * specified kind of lock on each. Return an array of Relation pointers for
+ * specified kind of lock on each.  Return an array of Relation pointers for
  * the indexes into *Irel, and the number of indexes into *nindexes.
  *
  * We consider an index vacuumable if it is marked insertable (IndexIsReady).
@@ -3904,7 +3904,7 @@ vac_open_indexes(Relation relation, LOCKMODE lockmode,
 }
 
 /*
- * Release the resources acquired by vac_open_indexes. Optionally release
+ * Release the resources acquired by vac_open_indexes.  Optionally release
  * the locks (say NoLock to keep 'em).
  */
 void
@@ -3967,7 +3967,7 @@ PageGetFreeSpaceWithFillFactor(Relation relation, Page page)
 {
    /*
     * It is correct to use PageGetExactFreeSpace() here, *not*
-    * PageGetHeapFreeSpace().  This is because (a) we do our own, exact
+    * PageGetHeapFreeSpace().  This is because (a) we do our own, exact
     * accounting for whether line pointers must be added, and (b) we will
     * recycle any LP_DEAD line pointers before starting to add rows to a
     * page, but that may not have happened yet at the time this function is
index bcd99efc939ba61cb4b2d0860bee4325c915eacb..0ef21b38e1dae7132b26466322ddf315a73c9865 100644 (file)
@@ -13,7 +13,7 @@
  * We are willing to use at most maintenance_work_mem memory space to keep
  * track of dead tuples.  We initially allocate an array of TIDs of that size,
  * with an upper limit that depends on table size (this limit ensures we don't
- * allocate a huge area uselessly for vacuuming small tables). If the array
+ * allocate a huge area uselessly for vacuuming small tables).  If the array
  * threatens to overflow, we suspend the heap scan phase and perform a pass of
  * index cleanup and page compaction, then resume the heap scan with an empty
  * TID array.
@@ -798,8 +798,8 @@ lazy_scan_heap(Relation onerel, LVRelStats *vacrelstats,
        /*
         * If we remembered any tuples for deletion, then the page will be
         * visited again by lazy_vacuum_heap, which will compute and record
-        * its post-compaction free space.  If not, then we're done with this
-        * page, so remember its free space as-is.  (This path will always be
+        * its post-compaction free space.  If not, then we're done with this
+        * page, so remember its free space as-is.  (This path will always be
         * taken if there are no indexes.)
         */
        if (vacrelstats->num_dead_tuples == prev_dead_count)
@@ -1127,7 +1127,7 @@ lazy_truncate_heap(Relation onerel, LVRelStats *vacrelstats)
 
    /*
     * Note: once we have truncated, we *must* keep the exclusive lock until
-    * commit.  The sinval message won't be sent until commit, and other
+    * commit.  The sinval message won't be sent until commit, and other
     * backends must see it and reset their rd_targblock values before they
     * can safely access the table again.
     */
index cbed1642379d60d1c870edbf9256bc71058623e4..0903695e2bf705183b1e01163f31a438e5529302 100644 (file)
@@ -183,7 +183,7 @@ assign_datestyle(const char *value, bool doit, GucSource source)
        return value;
 
    /*
-    * Prepare the canonical string to return.  GUC wants it malloc'd.
+    * Prepare the canonical string to return.  GUC wants it malloc'd.
     */
    result = (char *) malloc(32);
    if (!result)
@@ -268,7 +268,7 @@ assign_timezone(const char *value, bool doit, GucSource source)
 
        /*
         * Try to parse it.  XXX an invalid interval format will result in
-        * ereport(ERROR), which is not desirable for GUC.  We did what we
+        * ereport(ERROR), which is not desirable for GUC.  We did what we
         * could to guard against this in flatten_set_variable_args, but a
         * string coming in from postgresql.conf might contain anything.
         */
@@ -335,7 +335,7 @@ assign_timezone(const char *value, bool doit, GucSource source)
             *
             * During GUC initialization, since the timezone library isn't set
             * up yet, pg_get_timezone_name will return NULL and we will leave
-            * the setting as UNKNOWN.  If this isn't overridden from the
+            * the setting as UNKNOWN.  If this isn't overridden from the
             * config file then pg_timezone_initialize() will eventually
             * select a default value from the environment.
             */
@@ -391,7 +391,7 @@ assign_timezone(const char *value, bool doit, GucSource source)
        return value;
 
    /*
-    * Prepare the canonical string to return.  GUC wants it malloc'd.
+    * Prepare the canonical string to return.  GUC wants it malloc'd.
     */
    if (HasCTZSet)
    {
@@ -467,7 +467,7 @@ assign_log_timezone(const char *value, bool doit, GucSource source)
         *
         * During GUC initialization, since the timezone library isn't set up
         * yet, pg_get_timezone_name will return NULL and we will leave the
-        * setting as UNKNOWN.  If this isn't overridden from the config file
+        * setting as UNKNOWN.  If this isn't overridden from the config file
         * then pg_timezone_initialize() will eventually select a default
         * value from the environment.
         */
@@ -521,7 +521,7 @@ assign_log_timezone(const char *value, bool doit, GucSource source)
        return value;
 
    /*
-    * Prepare the canonical string to return.  GUC wants it malloc'd.
+    * Prepare the canonical string to return.  GUC wants it malloc'd.
     */
    result = strdup(value);
 
@@ -656,7 +656,7 @@ assign_client_encoding(const char *value, bool doit, GucSource source)
 
    /*
     * Note: if we are in startup phase then SetClientEncoding may not be able
-    * to really set the encoding.  In this case we will assume that the
+    * to really set the encoding.  In this case we will assume that the
     * encoding is okay, and InitializeClientEncoding() will fix things once
     * initialization is complete.
     */
@@ -684,7 +684,7 @@ assign_client_encoding(const char *value, bool doit, GucSource source)
  * limit on names, so we can tell whether we're being passed an initial
  * role name or a saved/restored value.  (NOTE: we rely on guc.c to have
  * properly truncated any incoming value, but not to truncate already-stored
- * values. See GUC_IS_NAME processing.)
+ * values.  See GUC_IS_NAME processing.)
  */
 extern char *session_authorization_string;     /* in guc.c */
 
index b06a48b7abadb8ca7c97c722db807bfcff3f42b0..da1b8bce762e9b33e7e81772595773a89eba68f2 100644 (file)
@@ -343,11 +343,11 @@ UpdateRangeTableOfViewParse(Oid viewOid, Query *viewParse)
               *rt_entry2;
 
    /*
-    * Make a copy of the given parsetree.  It's not so much that we don't
+    * Make a copy of the given parsetree.  It's not so much that we don't
     * want to scribble on our input, it's that the parser has a bad habit of
     * outputting multiple links to the same subtree for constructs like
     * BETWEEN, and we mustn't have OffsetVarNodes increment the varno of a
-    * Var node twice.  copyObject will expand any multiply-referenced subtree
+    * Var node twice.  copyObject will expand any multiply-referenced subtree
     * into multiple copies.
     */
    viewParse = (Query *) copyObject(viewParse);
@@ -443,7 +443,7 @@ DefineView(ViewStmt *stmt, const char *queryString)
 
    /*
     * If the user didn't explicitly ask for a temporary view, check whether
-    * we need one implicitly.  We allow TEMP to be inserted automatically as
+    * we need one implicitly.  We allow TEMP to be inserted automatically as
     * long as the CREATE command is consistent with that --- no explicit
     * schema name.
     */
index cd23d8d8b64efe2b6afecbf45da4ae24e169b464..1980b0fff9d57bf9ebf289d8f012842014b680a1 100644 (file)
@@ -63,7 +63,7 @@ static bool IndexSupportsBackwardScan(Oid indexid);
  * needs access to variables of the current outer tuple.  (The handling of
  * this parameter is currently pretty inconsistent: some callers pass NULL
  * and some pass down their parent's value; so don't rely on it in other
- * situations. It'd probably be better to remove the whole thing and use
+ * situations.  It'd probably be better to remove the whole thing and use
  * the generalized parameter mechanism instead.)
  */
 void
@@ -295,7 +295,7 @@ ExecMarkPos(PlanState *node)
  *
  * NOTE: the semantics of this are that the first ExecProcNode following
  * the restore operation will yield the same tuple as the first one following
- * the mark operation. It is unspecified what happens to the plan node's
+ * the mark operation.  It is unspecified what happens to the plan node's
  * result TupleTableSlot.  (In most cases the result slot is unchanged by
  * a restore, but the node may choose to clear it or to load it with the
  * restored-to tuple.) Hence the caller should discard any previously
@@ -370,7 +370,7 @@ ExecSupportsMarkRestore(NodeTag plantype)
            /*
             * T_Result only supports mark/restore if it has a child plan that
             * does, so we do not have enough information to give a really
-            * correct answer.  However, for current uses it's enough to
+            * correct answer.  However, for current uses it's enough to
             * always say "false", because this routine is not asked about
             * gating Result plans, only base-case Results.
             */
index d9ecc973e1e99840b274fa037de97cebab6980e8..153a70839af5366aba722be52210f3f1471ae78f 100644 (file)
@@ -138,7 +138,7 @@ execCurrentOf(CurrentOfExpr *cexpr,
 
        /*
         * This table didn't produce the cursor's current row; some other
-        * inheritance child of the same parent must have.  Signal caller to
+        * inheritance child of the same parent must have.  Signal caller to
         * do nothing on this table.
         */
        return false;
index a4c77f0ad385a4b9d14181d1bf5b30fb2a77907f..42206e49d76569203bbf0700646c5f9e7d658a58 100644 (file)
@@ -54,7 +54,7 @@
  *
  * Initialize the Junk filter.
  *
- * The source targetlist is passed in. The output tuple descriptor is
+ * The source targetlist is passed in.  The output tuple descriptor is
  * built from the non-junk tlist entries, plus the passed specification
  * of whether to include room for an OID or not.
  * An optional resultSlot can be passed as well.
index 53df597552ad12fe3f09d3c1250a7a12606d4687..05f2f1359f52e2f5f9c8769d520a5471daff08b9 100644 (file)
@@ -125,7 +125,7 @@ static void intorel_destroy(DestReceiver *self);
  *     query plan
  *
  * Takes a QueryDesc previously created by CreateQueryDesc (it's not real
- * clear why we bother to separate the two functions, but...). The tupDesc
+ * clear why we bother to separate the two functions, but...).  The tupDesc
  * field of the QueryDesc is filled in to describe the tuples that will be
  * returned, and the internal fields (estate and planstate) are set up.
  *
@@ -483,7 +483,7 @@ ExecCheckRTEPerms(RangeTblEntry *rte)
     * userid to check as: current user unless we have a setuid indication.
     *
     * Note: GetUserId() is presently fast enough that there's no harm in
-    * calling it separately for each RTE.  If that stops being true, we could
+    * calling it separately for each RTE.  If that stops being true, we could
     * call it once in ExecCheckRTPerms and pass the userid down from there.
     * But for now, no need for the extra clutter.
     */
@@ -1070,7 +1070,7 @@ InitPlan(QueryDesc *queryDesc, int eflags)
        econtext = CreateExprContext(estate);
 
        /*
-        * Build a projection for each result rel.  Note that any SubPlans in
+        * Build a projection for each result rel.  Note that any SubPlans in
         * the RETURNING lists get attached to the topmost plan node.
         */
        Assert(list_length(plannedstmt->returningLists) == estate->es_num_result_relations);
@@ -1267,7 +1267,7 @@ ExecCheckPlanOutput(Relation resultRel, List *targetList)
  * if so it doesn't matter which one we pick.)  However, it is sometimes
  * necessary to fire triggers on other relations; this happens mainly when an
  * RI update trigger queues additional triggers on other relations, which will
- * be processed in the context of the outer query. For efficiency's sake,
+ * be processed in the context of the outer query.  For efficiency's sake,
  * we want to have a ResultRelInfo for those triggers too; that can avoid
  * repeated re-opening of the relation.  (It also provides a way for EXPLAIN
  * ANALYZE to report the runtimes of such triggers.)  So we make additional
@@ -1925,7 +1925,7 @@ ExecDelete(ItemPointer tupleid,
     *
     * Note: if es_crosscheck_snapshot isn't InvalidSnapshot, we check that
     * the row to be deleted is visible to that snapshot, and throw a can't-
-    * serialize error if not.  This is a special-case behavior needed for
+    * serialize error if not.  This is a special-case behavior needed for
     * referential integrity updates in serializable transactions.
     */
 ldelete:;
@@ -1990,7 +1990,7 @@ ldelete:;
    {
        /*
         * We have to put the target tuple into a slot, which means first we
-        * gotta fetch it.  We can use the trigger tuple slot.
+        * gotta fetch it.  We can use the trigger tuple slot.
         */
        TupleTableSlot *slot = estate->es_trig_tuple_slot;
        HeapTupleData deltuple;
@@ -2019,7 +2019,7 @@ ldelete:;
  *     note: we can't run UPDATE queries with transactions
  *     off because UPDATEs are actually INSERTs and our
  *     scan will mistakenly loop forever, updating the tuple
- *     it just inserted..  This should be fixed but until it
+ *     it just inserted..  This should be fixed but until it
  *     is, we don't want to get stuck in an infinite loop
  *     which corrupts your database..
  * ----------------------------------------------------------------
@@ -2088,7 +2088,7 @@ lreplace:;
     *
     * Note: if es_crosscheck_snapshot isn't InvalidSnapshot, we check that
     * the row to be updated is visible to that snapshot, and throw a can't-
-    * serialize error if not.  This is a special-case behavior needed for
+    * serialize error if not.  This is a special-case behavior needed for
     * referential integrity updates in serializable transactions.
     */
    result = heap_update(resultRelationDesc, tupleid, tuple,
@@ -2141,7 +2141,7 @@ lreplace:;
     * Note: instead of having to update the old index tuples associated with
     * the heap tuple, all we do is form and insert new index tuples. This is
     * because UPDATEs are actually DELETEs and INSERTs, and index tuple
-    * deletion is done later by VACUUM (see notes in ExecDelete).  All we do
+    * deletion is done later by VACUUM (see notes in ExecDelete).  All we do
     * here is insert new index tuples.  -cim 9/27/89
     */
 
@@ -2371,7 +2371,7 @@ EvalPlanQual(EState *estate, Index rti,
        {
            /*
             * If xmin isn't what we're expecting, the slot must have been
-            * recycled and reused for an unrelated tuple.  This implies that
+            * recycled and reused for an unrelated tuple.  This implies that
             * the latest version of the row was deleted, so we need do
             * nothing.  (Should be safe to examine xmin without getting
             * buffer's content lock, since xmin never changes in an existing
@@ -2479,7 +2479,7 @@ EvalPlanQual(EState *estate, Index rti,
    *tid = tuple.t_self;
 
    /*
-    * Need to run a recheck subquery.  Find or create a PQ stack entry.
+    * Need to run a recheck subquery.  Find or create a PQ stack entry.
     */
    epq = estate->es_evalPlanQual;
    endNode = true;
@@ -2716,7 +2716,7 @@ EvalPlanQualStart(evalPlanQual *epq, EState *estate, evalPlanQual *priorepq)
 
    /*
     * Each epqstate must have its own es_evTupleNull state, but all the stack
-    * entries share es_evTuple state.  This allows sub-rechecks to inherit
+    * entries share es_evTuple state.  This allows sub-rechecks to inherit
     * the value being examined by an outer recheck.
     */
    epqstate->es_evTupleNull = (bool *) palloc0(rtsize * sizeof(bool));
@@ -2766,7 +2766,7 @@ EvalPlanQualStart(evalPlanQual *epq, EState *estate, evalPlanQual *priorepq)
  *
  * This is a cut-down version of ExecutorEnd(); basically we want to do most
  * of the normal cleanup, but *not* close result relations (which we are
- * just sharing from the outer query). We do, however, have to close any
+ * just sharing from the outer query).  We do, however, have to close any
  * trigger target relations that got opened, since those are not shared.
  */
 static void
index 1b1dd91f2a30d50420373e59390febbed217d981..69a9d3b288706e16d933936f8f01411c20f5d975 100644 (file)
@@ -52,7 +52,7 @@
  *   * ExecInitNode() notices that it is looking at a nest loop and
  *     as the code below demonstrates, it calls ExecInitNestLoop().
  *     Eventually this calls ExecInitNode() on the right and left subplans
- *     and so forth until the entire plan is initialized.  The result
+ *     and so forth until the entire plan is initialized.  The result
  *     of ExecInitNode() is a plan state tree built with the same structure
  *     as the underlying plan tree.
  *
@@ -642,7 +642,7 @@ ExecCountSlotsNode(Plan *node)
  *     at 'node'.
  *
  *     After this operation, the query plan will not be able to
- *     processed any further.  This should be called only after
+ *     processed any further.  This should be called only after
  *     the query plan has been fully executed.
  * ----------------------------------------------------------------
  */
index d5e828967f112e55f0dc78094b27b724d4ced088..97c7d175d323766cbd00407b89d95d317f0b9637 100644 (file)
@@ -26,7 +26,7 @@
  *     ExecProject() is used to make tuple projections.  Rather then
  *     trying to speed it up, the execution plan should be pre-processed
  *     to facilitate attribute sharing between nodes wherever possible,
- *     instead of doing needless copying.  -cim 5/31/91
+ *     instead of doing needless copying.  -cim 5/31/91
  *
  *     During expression evaluation, we check_stack_depth only in
  *     ExecMakeFunctionResult (and substitute routines) rather than at every
@@ -196,7 +196,7 @@ static Datum ExecEvalCurrentOfExpr(ExprState *exprstate, ExprContext *econtext,
  *
  * Note: for notational simplicity we declare these functions as taking the
  * specific type of ExprState that they work on.  This requires casting when
- * assigning the function pointer in ExecInitExpr. Be careful that the
+ * assigning the function pointer in ExecInitExpr.  Be careful that the
  * function signature is declared correctly, because the cast suppresses
  * automatic checking!
  *
@@ -231,7 +231,7 @@ static Datum ExecEvalCurrentOfExpr(ExprState *exprstate, ExprContext *econtext,
  * The caller should already have switched into the temporary memory
  * context econtext->ecxt_per_tuple_memory.  The convenience entry point
  * ExecEvalExprSwitchContext() is provided for callers who don't prefer to
- * do the switch in an outer loop. We do not do the switch in these routines
+ * do the switch in an outer loop.  We do not do the switch in these routines
  * because it'd be a waste of cycles during nested expression evaluation.
  * ----------------------------------------------------------------
  */
@@ -434,7 +434,7 @@ ExecEvalArrayRef(ArrayRefExprState *astate,
        /*
         * For assignment to varlena arrays, we handle a NULL original array
         * by substituting an empty (zero-dimensional) array; insertion of the
-        * new element will result in a singleton array value.  It does not
+        * new element will result in a singleton array value.  It does not
         * matter whether the new element is NULL.
         */
        if (*isNull)
@@ -815,11 +815,11 @@ ExecEvalWholeRowVar(WholeRowVarExprState *wrvstate, ExprContext *econtext,
         * We really only care about numbers of attributes and data types.
         * Also, we can ignore type mismatch on columns that are dropped in
         * the destination type, so long as (1) the physical storage matches
-        * or (2) the actual column value is NULL.  Case (1) is helpful in
+        * or (2) the actual column value is NULL.  Case (1) is helpful in
         * some cases involving out-of-date cached plans, while case (2) is
         * expected behavior in situations such as an INSERT into a table with
         * dropped columns (the planner typically generates an INT4 NULL
-        * regardless of the dropped column type).  If we find a dropped
+        * regardless of the dropped column type).  If we find a dropped
         * column and cannot verify that case (1) holds, we have to use
         * ExecEvalWholeRowSlow to check (2) for each row.
         */
@@ -1414,7 +1414,7 @@ ExecEvalFuncArgs(FunctionCallInfo fcinfo,
  *     ExecPrepareTuplestoreResult
  *
  * Subroutine for ExecMakeFunctionResult: prepare to extract rows from a
- * tuplestore function result. We must set up a funcResultSlot (unless
+ * tuplestore function result.  We must set up a funcResultSlot (unless
  * already done in a previous call cycle) and verify that the function
  * returned the expected tuple descriptor.
  */
@@ -1459,7 +1459,7 @@ ExecPrepareTuplestoreResult(FuncExprState *fcache,
    }
 
    /*
-    * If function provided a tupdesc, cross-check it.  We only really need to
+    * If function provided a tupdesc, cross-check it.  We only really need to
     * do this for functions returning RECORD, but might as well do it always.
     */
    if (resultDesc)
@@ -1608,7 +1608,7 @@ restart:
     * For non-set-returning functions, we just use a local-variable
     * FunctionCallInfoData.  For set-returning functions we keep the callinfo
     * record in fcache->setArgs so that it can survive across multiple
-    * value-per-call invocations.  (The reason we don't just do the latter
+    * value-per-call invocations.  (The reason we don't just do the latter
     * all the time is that plpgsql expects to be able to use simple
     * expression trees re-entrantly.  Which might not be a good idea, but the
     * penalty for not doing so is high.)
@@ -1658,7 +1658,7 @@ restart:
    if (fcache->func.fn_retset || hasSetArg)
    {
        /*
-        * We need to return a set result.  Complain if caller not ready to
+        * We need to return a set result.  Complain if caller not ready to
         * accept one.
         */
        if (isDone == NULL)
@@ -1980,7 +1980,7 @@ ExecMakeTableFunctionResult(ExprState *funcexpr,
    /*
     * Normally the passed expression tree will be a FuncExprState, since the
     * grammar only allows a function call at the top level of a table
-    * function reference.  However, if the function doesn't return set then
+    * function reference.  However, if the function doesn't return set then
     * the planner might have replaced the function call via constant-folding
     * or inlining.  So if we see any other kind of expression node, execute
     * it via the general ExecEvalExpr() code; the only difference is that we
@@ -2015,7 +2015,7 @@ ExecMakeTableFunctionResult(ExprState *funcexpr,
         *
         * Note: ideally, we'd do this in the per-tuple context, but then the
         * argument values would disappear when we reset the context in the
-        * inner loop.  So do it in caller context.  Perhaps we should make a
+        * inner loop.  So do it in caller context.  Perhaps we should make a
         * separate context just to hold the evaluated arguments?
         */
        fcinfo.flinfo = &(fcache->func);
@@ -2101,7 +2101,7 @@ ExecMakeTableFunctionResult(ExprState *funcexpr,
             * Can't do anything very useful with NULL rowtype values. For a
             * function returning set, we consider this a protocol violation
             * (but another alternative would be to just ignore the result and
-            * "continue" to get another row).  For a function not returning
+            * "continue" to get another row).  For a function not returning
             * set, we fall out of the loop; we'll cons up an all-nulls result
             * row below.
             */
@@ -2235,7 +2235,7 @@ no_function_result:
    }
 
    /*
-    * If function provided a tupdesc, cross-check it.  We only really need to
+    * If function provided a tupdesc, cross-check it.  We only really need to
     * do this for functions returning RECORD, but might as well do it always.
     */
    if (rsinfo.setDesc)
@@ -2415,7 +2415,7 @@ ExecEvalDistinct(FuncExprState *fcache,
  *
  * Evaluate "scalar op ANY/ALL (array)".  The operator always yields boolean,
  * and we combine the results across all array elements using OR and AND
- * (for ANY and ALL respectively). Of course we short-circuit as soon as
+ * (for ANY and ALL respectively).  Of course we short-circuit as soon as
  * the result is known.
  */
 static Datum
@@ -2600,7 +2600,7 @@ ExecEvalScalarArrayOp(ScalarArrayOpExprState *sstate,
  *     qualification to conjunctive normal form.  If we ever get
  *     an AND to evaluate, we can be sure that it's not a top-level
  *     clause in the qualification, but appears lower (as a function
- *     argument, for example), or in the target list.  Not that you
+ *     argument, for example), or in the target list.  Not that you
  *     need to know this, mind you...
  * ----------------------------------------------------------------
  */
@@ -2731,7 +2731,7 @@ ExecEvalAnd(BoolExprState *andExpr, ExprContext *econtext,
 /* ----------------------------------------------------------------
  *     ExecEvalConvertRowtype
  *
- *     Evaluate a rowtype coercion operation.  This may require
+ *     Evaluate a rowtype coercion operation.  This may require
  *     rearranging field positions.
  * ----------------------------------------------------------------
  */
@@ -2926,7 +2926,7 @@ ExecEvalCase(CaseExprState *caseExpr, ExprContext *econtext,
 
        /*
         * if we have a true test, then we return the result, since the case
-        * statement is satisfied.  A NULL result from the test is not
+        * statement is satisfied.  A NULL result from the test is not
         * considered true.
         */
        if (DatumGetBool(clause_value) && !*isNull)
@@ -3140,7 +3140,7 @@ ExecEvalArray(ArrayExprState *astate, ExprContext *econtext,
         * If all items were null or empty arrays, return an empty array;
         * otherwise, if some were and some weren't, raise error.  (Note: we
         * must special-case this somehow to avoid trying to generate a 1-D
-        * array formed from empty arrays.  It's not ideal...)
+        * array formed from empty arrays.  It's not ideal...)
         */
        if (haveempty)
        {
@@ -4301,7 +4301,7 @@ ExecEvalExprSwitchContext(ExprState *expression,
  * ExecInitExpr: prepare an expression tree for execution
  *
  * This function builds and returns an ExprState tree paralleling the given
- * Expr node tree. The ExprState tree can then be handed to ExecEvalExpr
+ * Expr node tree.  The ExprState tree can then be handed to ExecEvalExpr
  * for execution.  Because the Expr tree itself is read-only as far as
  * ExecInitExpr and ExecEvalExpr are concerned, several different executions
  * of the same plan tree can occur concurrently.
@@ -4312,9 +4312,9 @@ ExecEvalExprSwitchContext(ExprState *expression,
  *
  * Any Aggref, WindowFunc, or SubPlan nodes found in the tree are added to the
  * lists of such nodes held by the parent PlanState. Otherwise, we do very
- * little initialization here other than building the state-node tree. Any
+ * little initialization here other than building the state-node tree.  Any
  * nontrivial work associated with initializing runtime info for a node should
- * happen during the first actual evaluation of that node. (This policy lets
+ * happen during the first actual evaluation of that node.  (This policy lets
  * us avoid work if the node is never actually evaluated.)
  *
  * Note: there is no ExecEndExpr function; we assume that any resource
@@ -5099,7 +5099,7 @@ ExecQual(List *qual, ExprContext *econtext, bool resultForNull)
    oldContext = MemoryContextSwitchTo(econtext->ecxt_per_tuple_memory);
 
    /*
-    * Evaluate the qual conditions one at a time.  If we find a FALSE result,
+    * Evaluate the qual conditions one at a time.  If we find a FALSE result,
     * we can stop evaluating and return FALSE --- the AND result must be
     * FALSE.  Also, if we find a NULL result when resultForNull is FALSE, we
     * can stop and return FALSE --- the AND result must be FALSE or NULL in
@@ -5258,7 +5258,7 @@ ExecTargetList(List *targetlist,
        else
        {
            /*
-            * We have some done and some undone sets.  Restart the done ones
+            * We have some done and some undone sets.  Restart the done ones
             * so that we can deliver a tuple (if possible).
             */
            foreach(tl, targetlist)
index 97bd26a854ce30a1e93c2b3403f4550328d87eeb..2cff2daadae1395c3ee7180370de1e3c6cabe9e8 100644 (file)
@@ -1,7 +1,7 @@
 /*-------------------------------------------------------------------------
  *
  * execTuples.c
- *   Routines dealing with the executor tuple tables.  These are used to
+ *   Routines dealing with the executor tuple tables.  These are used to
  *   ensure that the executor frees copies of tuples (made by
  *   ExecTargetList) properly.
  *
@@ -276,7 +276,7 @@ ExecDropSingleTupleTableSlot(TupleTableSlot *slot)
  *     ExecAllocTableSlot
  *
  *     This routine is used to reserve slots in the table for
- *     use by the various plan nodes.  It is expected to be
+ *     use by the various plan nodes.  It is expected to be
  *     called by the node init routines (ex: ExecInitNestLoop)
  *     once per slot needed by the node.  Not all nodes need
  *     slots (some just pass tuples around).
@@ -329,7 +329,7 @@ ExecSetSlotDescriptor(TupleTableSlot *slot,     /* slot to change */
    ExecClearTuple(slot);
 
    /*
-    * Release any old descriptor.  Also release old Datum/isnull arrays if
+    * Release any old descriptor.  Also release old Datum/isnull arrays if
     * present (we don't bother to check if they could be re-used).
     */
    if (slot->tts_tupleDescriptor)
@@ -379,7 +379,7 @@ ExecSetSlotDescriptor(TupleTableSlot *slot,     /* slot to change */
  * Another case where it is 'false' is when the referenced tuple is held
  * in a tuple table slot belonging to a lower-level executor Proc node.
  * In this case the lower-level slot retains ownership and responsibility
- * for eventually releasing the tuple. When this method is used, we must
+ * for eventually releasing the tuple.  When this method is used, we must
  * be certain that the upper-level Proc node will lose interest in the tuple
  * sooner than the lower-level one does!  If you're not certain, copy the
  * lower-level tuple with heap_copytuple and let the upper-level table
@@ -718,7 +718,7 @@ ExecFetchSlotTuple(TupleTableSlot *slot)
  *         Fetch the slot's minimal physical tuple.
  *
  *     If the slot contains a virtual tuple, we convert it to minimal
- *     physical form.  The slot retains ownership of the minimal tuple.
+ *     physical form.  The slot retains ownership of the minimal tuple.
  *     If it contains a regular tuple we convert to minimal form and store
  *     that in addition to the regular tuple (not instead of, because
  *     callers may hold pointers to Datums within the regular tuple).
@@ -897,7 +897,7 @@ ExecCopySlot(TupleTableSlot *dstslot, TupleTableSlot *srcslot)
  *     ExecInit{Result,Scan,Extra}TupleSlot
  *
  *     These are convenience routines to initialize the specified slot
- *     in nodes inheriting the appropriate state.  ExecInitExtraTupleSlot
+ *     in nodes inheriting the appropriate state.  ExecInitExtraTupleSlot
  *     is used for initializing special-purpose slots.
  * --------------------------------
  */
@@ -1206,7 +1206,7 @@ BuildTupleFromCStrings(AttInMetadata *attinmeta, char **values)
  * code would have no way to obtain a tupledesc for the tuple.
  *
  * Note that if we do build a new tuple, it's palloc'd in the current
- * memory context. Beware of code that changes context between the initial
+ * memory context.  Beware of code that changes context between the initial
  * heap_form_tuple/etc call and calling HeapTuple(Header)GetDatum.
  *
  * For performance-critical callers, it could be worthwhile to take extra
index 3af803d9366964a292d147bad15fc5ee256fa8b9..f3b07f280a257f08519c14d74c563a5ebfab110c 100644 (file)
@@ -439,7 +439,7 @@ FreeExprContext(ExprContext *econtext, bool isCommit)
  * ReScanExprContext
  *
  *     Reset an expression context in preparation for a rescan of its
- *     plan node.  This requires calling any registered shutdown callbacks,
+ *     plan node.  This requires calling any registered shutdown callbacks,
  *     since any partially complete set-returning-functions must be canceled.
  *
  * Note we make no assumption about the caller's memory context.
@@ -480,7 +480,7 @@ MakePerTupleExprContext(EState *estate)
 /* ----------------
  *     ExecAssignExprContext
  *
- *     This initializes the ps_ExprContext field.  It is only necessary
+ *     This initializes the ps_ExprContext field.  It is only necessary
  *     to do this for nodes which use ExecQual or ExecProject
  *     because those routines require an econtext. Other nodes that
  *     don't have to evaluate expressions don't need to do this.
@@ -526,7 +526,7 @@ ExecAssignResultTypeFromTL(PlanState *planstate)
 
    /*
     * ExecTypeFromTL needs the parse-time representation of the tlist, not a
-    * list of ExprStates.  This is good because some plan nodes don't bother
+    * list of ExprStates.  This is good because some plan nodes don't bother
     * to set up planstate->targetlist ...
     */
    tupDesc = ExecTypeFromTL(planstate->plan->targetlist, hasoid);
@@ -554,7 +554,7 @@ ExecGetResultType(PlanState *planstate)
  * the given tlist should be a list of ExprState nodes, not Expr nodes.
  *
  * inputDesc can be NULL, but if it is not, we check to see whether simple
- * Vars in the tlist match the descriptor. It is important to provide
+ * Vars in the tlist match the descriptor.  It is important to provide
  * inputDesc for relation-scan plan nodes, as a cross check that the relation
  * hasn't been changed since the plan was made.  At higher levels of a plan,
  * there is no need to recheck.
@@ -756,7 +756,7 @@ ExecAssignProjectionInfo(PlanState *planstate,
  *
  * However ... there is no particular need to do it during ExecEndNode,
  * because FreeExecutorState will free any remaining ExprContexts within
- * the EState. Letting FreeExecutorState do it allows the ExprContexts to
+ * the EState.  Letting FreeExecutorState do it allows the ExprContexts to
  * be freed in reverse order of creation, rather than order of creation as
  * will happen if we delete them here, which saves O(N^2) work in the list
  * cleanup inside FreeExprContext.
@@ -776,7 +776,7 @@ ExecFreeExprContext(PlanState *planstate)
  *     the following scan type support functions are for
  *     those nodes which are stubborn and return tuples in
  *     their Scan tuple slot instead of their Result tuple
- *     slot..  luck fur us, these nodes do not do projections
+ *     slot..  luck fur us, these nodes do not do projections
  *     so we don't have to worry about getting the ProjectionInfo
  *     right for them...  -cim 6/3/91
  * ----------------------------------------------------------------
@@ -1125,7 +1125,7 @@ ExecInsertIndexTuples(TupleTableSlot *slot,
                       isnull);
 
        /*
-        * The index AM does the rest.  Note we suppress unique-index checks
+        * The index AM does the rest.  Note we suppress unique-index checks
         * if we are being called from VACUUM, since VACUUM may need to move
         * dead tuples that have the same keys as live ones.
         */
index b5fa130579a77c9bd3670d7bc0c3713858fdfa7b..82b894e31e8d1d128f055a55a3ec05a7a4b547c1 100644 (file)
@@ -44,7 +44,7 @@ typedef struct
 } DR_sqlfunction;
 
 /*
- * We have an execution_state record for each query in a function. Each
+ * We have an execution_state record for each query in a function.  Each
  * record contains a plantree for its query.  If the query is currently in
  * F_EXEC_RUN state then there's a QueryDesc too.
  */
@@ -331,7 +331,7 @@ init_sql_fcache(FmgrInfo *finfo, bool lazyEvalOK)
     * any polymorphic arguments.
     *
     * Note: we set fcache->returnsTuple according to whether we are returning
-    * the whole tuple result or just a single column.  In the latter case we
+    * the whole tuple result or just a single column.  In the latter case we
     * clear returnsTuple because we need not act different from the scalar
     * result case, even if it's a rowtype column.  (However, we have to force
     * lazy eval mode in that case; otherwise we'd need extra code to expand
@@ -571,7 +571,7 @@ postquel_get_single_result(TupleTableSlot *slot,
    /*
     * Set up to return the function value.  For pass-by-reference datatypes,
     * be sure to allocate the result in resultcontext, not the current memory
-    * context (which has query lifespan).  We can't leave the data in the
+    * context (which has query lifespan).  We can't leave the data in the
     * TupleTableSlot because we intend to clear the slot before returning.
     */
    oldcontext = MemoryContextSwitchTo(resultcontext);
@@ -714,7 +714,7 @@ fmgr_sql(PG_FUNCTION_ARGS)
         * Break from loop if we didn't shut down (implying we got a
         * lazily-evaluated row).  Otherwise we'll press on till the whole
         * function is done, relying on the tuplestore to keep hold of the
-        * data to eventually be returned.  This is necessary since an
+        * data to eventually be returned.  This is necessary since an
         * INSERT/UPDATE/DELETE RETURNING that sets the result might be
         * followed by additional rule-inserted commands, and we want to
         * finish doing all those commands before we return anything.
@@ -770,7 +770,7 @@ fmgr_sql(PG_FUNCTION_ARGS)
        else if (fcache->lazyEval)
        {
            /*
-            * We are done with a lazy evaluation.  Clean up.
+            * We are done with a lazy evaluation.  Clean up.
             */
            tuplestore_clear(fcache->tstore);
 
@@ -794,8 +794,8 @@ fmgr_sql(PG_FUNCTION_ARGS)
        else
        {
            /*
-            * We are done with a non-lazy evaluation.  Return whatever is in
-            * the tuplestore.  (It is now caller's responsibility to free the
+            * We are done with a non-lazy evaluation.  Return whatever is in
+            * the tuplestore.  (It is now caller's responsibility to free the
             * tuplestore when done.)
             */
            rsi->returnMode = SFRM_Materialize;
@@ -900,7 +900,7 @@ sql_exec_error_callback(void *arg)
 
    /*
     * Try to determine where in the function we failed.  If there is a query
-    * with non-null QueryDesc, finger it.  (We check this rather than looking
+    * with non-null QueryDesc, finger it.  (We check this rather than looking
     * for F_EXEC_RUN state, so that errors during ExecutorStart or
     * ExecutorEnd are blamed on the appropriate query; see postquel_start and
     * postquel_end.)
index a852428bbee6108c2728e333ec045165c907fd44..73379eeb607d8336f33083717046465fce8ce6ba 100644 (file)
@@ -19,7 +19,7 @@
  *   The agg's first input type and transtype must be the same in this case!
  *
  *   If transfunc is marked "strict" then NULL input_values are skipped,
- *   keeping the previous transvalue.  If transfunc is not strict then it
+ *   keeping the previous transvalue.  If transfunc is not strict then it
  *   is called for every input tuple and must deal with NULL initcond
  *   or NULL input_values for itself.
  *
@@ -53,7 +53,7 @@
  *   pass-by-ref inputs, but in the aggregate case we know the left input is
  *   either the initial transition value or a previous function result, and
  *   in either case its value need not be preserved.  See int8inc() for an
- *   example.  Notice that advance_transition_function() is coded to avoid a
+ *   example.  Notice that advance_transition_function() is coded to avoid a
  *   data copy step when the previous transition value pointer is returned.
  *   Also, some transition functions make use of the aggcontext to store
  *   working state.
@@ -189,7 +189,7 @@ typedef struct AggStatePerGroupData
 
    /*
     * Note: noTransValue initially has the same value as transValueIsNull,
-    * and if true both are cleared to false at the same time.  They are not
+    * and if true both are cleared to false at the same time.  They are not
     * the same though: if transfn later returns a NULL, we want to keep that
     * NULL and not auto-replace it with a later input value. Only the first
     * non-NULL input will be auto-substituted.
@@ -199,7 +199,7 @@ typedef struct AggStatePerGroupData
 /*
  * To implement hashed aggregation, we need a hashtable that stores a
  * representative tuple and an array of AggStatePerGroup structs for each
- * distinct set of GROUP BY column values. We compute the hash key from
+ * distinct set of GROUP BY column values.  We compute the hash key from
  * the GROUP BY columns.
  */
 typedef struct AggHashEntryData *AggHashEntry;
@@ -384,7 +384,7 @@ advance_transition_function(AggState *aggstate,
 
    /*
     * If pass-by-ref datatype, must copy the new value into aggcontext and
-    * pfree the prior transValue.  But if transfn returned a pointer to its
+    * pfree the prior transValue.  But if transfn returned a pointer to its
     * first input, we don't need to do anything.
     */
    if (!peraggstate->transtypeByVal &&
@@ -408,7 +408,7 @@ advance_transition_function(AggState *aggstate,
 }
 
 /*
- * Advance all the aggregates for one input tuple. The input tuple
+ * Advance all the aggregates for one input tuple.  The input tuple
  * has been stored in tmpcontext->ecxt_outertuple, so that it is accessible
  * to ExecEvalExpr.  pergroup is the array of per-group structs to use
  * (this might be in a hashtable entry).
@@ -470,7 +470,7 @@ advance_aggregates(AggState *aggstate, AggStatePerGroup pergroup)
 /*
  * Run the transition function for a DISTINCT aggregate.  This is called
  * after we have completed entering all the input values into the sort
- * object. We complete the sort, read out the values in sorted order,
+ * object.  We complete the sort, read out the values in sorted order,
  * and run the transition function on each non-duplicate value.
  *
  * When called, CurrentMemoryContext should be the per-query context.
@@ -792,9 +792,9 @@ lookup_hash_entry(AggState *aggstate, TupleTableSlot *inputslot)
  *   the appropriate attribute for each aggregate function use (Aggref
  *   node) appearing in the targetlist or qual of the node.  The number
  *   of tuples to aggregate over depends on whether grouped or plain
- *   aggregation is selected.  In grouped aggregation, we produce a result
+ *   aggregation is selected.  In grouped aggregation, we produce a result
  *   row for each group; in plain aggregation there's a single result row
- *   for the whole query.  In either case, the value of each aggregate is
+ *   for the whole query.  In either case, the value of each aggregate is
  *   stored in the expression context to be used when ExecProject evaluates
  *   the result tuple.
  */
@@ -992,7 +992,7 @@ agg_retrieve_direct(AggState *aggstate)
 
        /*
         * Use the representative input tuple for any references to
-        * non-aggregated input columns in the qual and tlist.  (If we are not
+        * non-aggregated input columns in the qual and tlist.  (If we are not
         * grouping, and there are no input rows at all, we will come here
         * with an empty firstSlot ... but if not grouping, there can't be any
         * references to non-aggregated input columns, so no problem.)
@@ -1216,8 +1216,8 @@ ExecInitAgg(Agg *node, EState *estate, int eflags)
    aggstate->hashtable = NULL;
 
    /*
-    * Create expression contexts.  We need two, one for per-input-tuple
-    * processing and one for per-output-tuple processing.  We cheat a little
+    * Create expression contexts.  We need two, one for per-input-tuple
+    * processing and one for per-output-tuple processing.  We cheat a little
     * by using ExecAssignExprContext() to build both.
     */
    ExecAssignExprContext(estate, &aggstate->ss.ps);
@@ -1252,7 +1252,7 @@ ExecInitAgg(Agg *node, EState *estate, int eflags)
     * initialize child expressions
     *
     * Note: ExecInitExpr finds Aggrefs for us, and also checks that no aggs
-    * contain other agg calls in their arguments.  This would make no sense
+    * contain other agg calls in their arguments.  This would make no sense
     * under SQL semantics anyway (and it's forbidden by the spec). Because
     * that is true, we don't need to worry about evaluating the aggs in any
     * particular order.
@@ -1299,7 +1299,7 @@ ExecInitAgg(Agg *node, EState *estate, int eflags)
         * This is not an error condition: we might be using the Agg node just
         * to do hash-based grouping.  Even in the regular case,
         * constant-expression simplification could optimize away all of the
-        * Aggrefs in the targetlist and qual.  So keep going, but force local
+        * Aggrefs in the targetlist and qual.  So keep going, but force local
         * copy of numaggs positive so that palloc()s below don't choke.
         */
        numaggs = 1;
@@ -1407,7 +1407,7 @@ ExecInitAgg(Agg *node, EState *estate, int eflags)
        peraggstate->numArguments = numArguments;
 
        /*
-        * Get actual datatypes of the inputs.  These could be different from
+        * Get actual datatypes of the inputs.  These could be different from
         * the agg's declared input types, when the agg accepts ANY or a
         * polymorphic type.
         */
@@ -1527,7 +1527,7 @@ ExecInitAgg(Agg *node, EState *estate, int eflags)
         * If the transfn is strict and the initval is NULL, make sure input
         * type and transtype are the same (or at least binary-compatible), so
         * that it's OK to use the first input value as the initial
-        * transValue.  This should have been checked at agg definition time,
+        * transValue.  This should have been checked at agg definition time,
         * but just in case...
         */
        if (peraggstate->transfn.fn_strict && peraggstate->initValueIsNull)
index 3a70ee447ff7fa4594727429af31f27b8c94e981..53d0d47a2d1a070e4c8b261a86fd6082f4e88327 100644 (file)
@@ -33,7 +33,7 @@
  *                /
  *             Append -------+------+------+--- nil
  *             /   \         |      |      |
- *           nil   nil      ...    ...    ...
+ *           nil   nil      ...    ...    ...
  *                              subplans
  *
  *     Append nodes are currently used for unions, and to support
@@ -345,7 +345,7 @@ ExecReScanAppend(AppendState *node, ExprContext *exprCtxt)
 
        /*
         * If chgParam of subnode is not null then plan will be re-scanned by
-        * first ExecProcNode.  However, if caller is passing us an exprCtxt
+        * first ExecProcNode.  However, if caller is passing us an exprCtxt
         * then forcibly rescan all the subnodes now, so that we can pass the
         * exprCtxt down to the subnodes (needed for appendrel indexscan).
         */
index 306e7f6e177eb4304d4e81e0f46450ba8d065b19..4544a33e708f83ce1b5df1b01278f9f69181426b 100644 (file)
@@ -5,7 +5,7 @@
  *
  * NOTE: it is critical that this plan type only be used with MVCC-compliant
  * snapshots (ie, regular snapshots, not SnapshotNow or one of the other
- * special snapshots). The reason is that since index and heap scans are
+ * special snapshots).  The reason is that since index and heap scans are
  * decoupled, there can be no assurance that the index tuple prompting a
  * visit to a particular heap TID still exists when the visit is made.
  * Therefore the tuple might not exist anymore either (which is OK because
@@ -361,7 +361,7 @@ bitgetpage(HeapScanDesc scan, TBMIterateResult *tbmres)
 
    /*
     * We must hold share lock on the buffer content while examining tuple
-    * visibility.  Afterwards, however, the tuples we have found to be
+    * visibility.  Afterwards, however, the tuples we have found to be
     * visible are guaranteed good as long as we hold the buffer pin.
     */
    LockBuffer(buffer, BUFFER_LOCK_SHARE);
index f38199650e57d48fea5b4120b17bbf266c9e5025..8cb02b31edbb2897a573ba5a7c8b0cc70da60a4a 100644 (file)
@@ -277,7 +277,7 @@ ExecFunctionReScan(FunctionScanState *node, ExprContext *exprCtxt)
    /*
     * Here we have a choice whether to drop the tuplestore (and recompute the
     * function outputs) or just rescan it.  We must recompute if the
-    * expression contains parameters, else we rescan.  XXX maybe we should
+    * expression contains parameters, else we rescan.  XXX maybe we should
     * recompute if the function is volatile?
     */
    if (node->ss.ps.chgParam != NULL)
index 64ae04d4f832114d0904021bcc39d6c30f433c57..6ff13684807289af96c079ea9b18b331cca648b9 100644 (file)
@@ -373,7 +373,7 @@ ExecHashTableCreate(Hash *node, List *hashOperators)
 
    /*
     * Set up for skew optimization, if possible and there's a need for more
-    * than one batch.  (In a one-batch join, there's no point in it.)
+    * than one batch.  (In a one-batch join, there's no point in it.)
     */
    if (nbatch > 1)
        ExecHashBuildSkewHash(hashtable, node, num_skew_mcvs);
@@ -415,7 +415,7 @@ ExecChooseHashTableSize(double ntuples, int tupwidth, bool useskew,
 
    /*
     * Estimate tupsize based on footprint of tuple in hashtable... note this
-    * does not allow for any palloc overhead.  The manipulations of spaceUsed
+    * does not allow for any palloc overhead.  The manipulations of spaceUsed
     * don't count palloc overhead either.
     */
    tupsize = HJTUPLE_OVERHEAD +
@@ -506,8 +506,8 @@ ExecChooseHashTableSize(double ntuples, int tupwidth, bool useskew,
 
    /*
     * Both nbuckets and nbatch must be powers of 2 to make
-    * ExecHashGetBucketAndBatch fast.  We already fixed nbatch; now inflate
-    * nbuckets to the next larger power of 2.  We also force nbuckets to not
+    * ExecHashGetBucketAndBatch fast.  We already fixed nbatch; now inflate
+    * nbuckets to the next larger power of 2.  We also force nbuckets to not
     * be real small, by starting the search at 2^10.  (Note: above we made
     * sure that nbuckets is not more than INT_MAX / 2, so this loop cannot
     * overflow, nor can the final shift to recalculate nbuckets.)
@@ -810,7 +810,7 @@ ExecHashGetHashValue(HashJoinTable hashtable,
         * the hash support function as strict even if the operator is not.
         *
         * Note: currently, all hashjoinable operators must be strict since
-        * the hash index AM assumes that.  However, it takes so little extra
+        * the hash index AM assumes that.  However, it takes so little extra
         * code here to allow non-strict that we may as well do it.
         */
        if (isNull)
@@ -1104,7 +1104,7 @@ ExecHashBuildSkewHash(HashJoinTable hashtable, Hash *node, int mcvsToUse)
            /*
             * While we have not hit a hole in the hashtable and have not hit
             * the desired bucket, we have collided with some previous hash
-            * value, so try the next bucket location.  NB: this code must
+            * value, so try the next bucket location.  NB: this code must
             * match ExecHashGetSkewBucket.
             */
            bucket = hashvalue & (nbuckets - 1);
@@ -1297,7 +1297,7 @@ ExecHashRemoveNextSkewBucket(HashJoinTable hashtable)
     * NOTE: this is not nearly as simple as it looks on the surface, because
     * of the possibility of collisions in the hashtable.  Suppose that hash
     * values A and B collide at a particular hashtable entry, and that A was
-    * entered first so B gets shifted to a different table entry.  If we were
+    * entered first so B gets shifted to a different table entry.  If we were
     * to remove A first then ExecHashGetSkewBucket would mistakenly start
     * reporting that B is not in the hashtable, because it would hit the NULL
     * before finding B.  However, we always remove entries in the reverse
index bfb07472b0cba8b5cff32341faf74ef09d9514d3..c336f4c6efa8b01efb4a7e4deab75d972ce9111c 100644 (file)
@@ -108,7 +108,7 @@ ExecHashJoin(HashJoinState *node)
         * If the outer relation is completely empty, we can quit without
         * building the hash table.  However, for an inner join it is only a
         * win to check this when the outer relation's startup cost is less
-        * than the projected cost of building the hash table.  Otherwise it's
+        * than the projected cost of building the hash table.  Otherwise it's
         * best to build the hash table first and see if the inner relation is
         * empty.  (When it's an outer join, we should always make this check,
         * since we aren't going to be able to skip the join on the strength
@@ -116,7 +116,7 @@ ExecHashJoin(HashJoinState *node)
         *
         * If we are rescanning the join, we make use of information gained on
         * the previous scan: don't bother to try the prefetch if the previous
-        * scan found the outer relation nonempty.  This is not 100% reliable
+        * scan found the outer relation nonempty.  This is not 100% reliable
         * since with new parameters the outer relation might yield different
         * results, but it's a good heuristic.
         *
@@ -430,7 +430,7 @@ ExecInitHashJoin(HashJoin *node, EState *estate, int eflags)
     * tuple slot of the Hash node (which is our inner plan).  we do this
     * because Hash nodes don't return tuples via ExecProcNode() -- instead
     * the hash join node uses ExecScanHashBucket() to get at the contents of
-    * the hash table.  -cim 6/9/91
+    * the hash table.  -cim 6/9/91
     */
    {
        HashState  *hashstate = (HashState *) innerPlanState(hjstate);
@@ -807,7 +807,7 @@ ExecHashJoinSaveTuple(MinimalTuple tuple, uint32 hashvalue,
 
 /*
  * ExecHashJoinGetSavedTuple
- *     read the next tuple from a batch file.  Return NULL if no more.
+ *     read the next tuple from a batch file.  Return NULL if no more.
  *
  * On success, *hashvalue is set to the tuple's hash value, and the tuple
  * itself is stored in the given slot.
index 0ed6b8689348d1ff3e497a1c164a6d89d158f2db..1f9113474f9fa0836d5a3289e0f69a3290167d55 100644 (file)
@@ -252,7 +252,7 @@ ExecIndexEvalRuntimeKeys(ExprContext *econtext,
 
        /*
         * For each run-time key, extract the run-time expression and evaluate
-        * it with respect to the current outer tuple.  We then stick the
+        * it with respect to the current outer tuple.  We then stick the
         * result into the proper scan key.
         *
         * Note: the result of the eval could be a pass-by-ref value that's
@@ -385,7 +385,7 @@ ExecIndexAdvanceArrayKeys(IndexArrayKeyInfo *arrayKeys, int numArrayKeys)
    /*
     * Note we advance the rightmost array key most quickly, since it will
     * correspond to the lowest-order index column among the available
-    * qualifications.  This is hypothesized to result in better locality of
+    * qualifications.  This is hypothesized to result in better locality of
     * access in the index.
     */
    for (j = numArrayKeys - 1; j >= 0; j--)
@@ -705,7 +705,7 @@ ExecIndexBuildScanKeys(PlanState *planstate, Relation index, Index scanrelid,
    /*
     * If there are any RowCompareExpr quals, we need extra ScanKey entries
     * for them, and possibly extra runtime-key entries.  Count up what's
-    * needed.  (The subsidiary ScanKey arrays for the RowCompareExprs could
+    * needed.  (The subsidiary ScanKey arrays for the RowCompareExprs could
     * be allocated as separate chunks, but we have to count anyway to make
     * runtime_keys large enough, so might as well just do one palloc.)
     */
index d002848bd32783fb8591ad7ac4a1b576473ea9d5..32bf2f8b2d6712c4670ffd3c0ea173c06099a95e 100644 (file)
@@ -111,7 +111,7 @@ ExecLimit(LimitState *node)
 
            /*
             * The subplan is known to return no tuples (or not more than
-            * OFFSET tuples, in general).  So we return no tuples.
+            * OFFSET tuples, in general).  So we return no tuples.
             */
            return NULL;
 
index 817a7e7824c68ebb6680578cff881522b049175a..aaee9d85aab33a23b5f727b21ea06972accd10bb 100644 (file)
@@ -185,7 +185,7 @@ ExecInitMaterial(Material *node, EState *estate, int eflags)
    /*
     * Tuplestore's interpretation of the flag bits is subtly different from
     * the general executor meaning: it doesn't think BACKWARD necessarily
-    * means "backwards all the way to start".  If told to support BACKWARD we
+    * means "backwards all the way to start".  If told to support BACKWARD we
     * must include REWIND in the tuplestore eflags, else tuplestore_trim
     * might throw away too much.
     */
index bde0f3d874492534b9b19db80e3acf4625bbe930..ab97c525d2b1eb5471ff3459d9134adf88a4b2c6 100644 (file)
@@ -41,7 +41,7 @@
  *
  *     Therefore, rather than directly executing the merge join clauses,
  *     we evaluate the left and right key expressions separately and then
- *     compare the columns one at a time (see MJCompare).  The planner
+ *     compare the columns one at a time (see MJCompare).  The planner
  *     passes us enough information about the sort ordering of the inputs
  *     to allow us to determine how to make the comparison.  We may use the
  *     appropriate btree comparison function, since Postgres' only notion
@@ -160,7 +160,7 @@ typedef enum
  * sort ordering for each merge key.  The mergejoinable operator is an
  * equality operator in this opfamily, and the two inputs are guaranteed to be
  * ordered in either increasing or decreasing (respectively) order according
- * to this opfamily, with nulls at the indicated end of the range. This
+ * to this opfamily, with nulls at the indicated end of the range.  This
  * allows us to obtain the needed comparison function from the opfamily.
  */
 static MergeJoinClause
@@ -307,7 +307,7 @@ MJEvalOuterValues(MergeJoinState *mergestate)
 /*
  * MJEvalInnerValues
  *
- * Same as above, but for the inner tuple. Here, we have to be prepared
+ * Same as above, but for the inner tuple.  Here, we have to be prepared
  * to load data from either the true current inner, or the marked inner,
  * so caller must tell us which slot to load from.
  */
@@ -435,7 +435,7 @@ MJCompare(MergeJoinState *mergestate)
    /*
     * If we had any null comparison results or NULL-vs-NULL inputs, we do not
     * want to report that the tuples are equal.  Instead, if result is still
-    * 0, change it to +1.  This will result in advancing the inner side of
+    * 0, change it to +1.  This will result in advancing the inner side of
     * the join.
     *
     * Likewise, if there was a constant-false joinqual, do not report
@@ -749,7 +749,7 @@ ExecMergeJoin(MergeJoinState *node)
                {
                    case MJEVAL_MATCHABLE:
                        /*
-                        * OK, we have the initial tuples.  Begin by skipping
+                        * OK, we have the initial tuples.  Begin by skipping
                         * non-matching tuples.
                         */
                        node->mj_JoinState = EXEC_MJ_SKIP_TEST;
@@ -1137,7 +1137,7 @@ ExecMergeJoin(MergeJoinState *node)
                     *  which means that all subsequent outer tuples will be
                     *  larger than our marked inner tuples.  So we need not
                     *  revisit any of the marked tuples but can proceed to
-                    *  look for a match to the current inner.  If there's
+                    *  look for a match to the current inner.  If there's
                     *  no more inners, no more matches are possible.
                     * ----------------
                     */
@@ -1525,7 +1525,7 @@ ExecInitMergeJoin(MergeJoin *node, EState *estate, int eflags)
     * For certain types of inner child nodes, it is advantageous to issue
     * MARK every time we advance past an inner tuple we will never return to.
     * For other types, MARK on a tuple we cannot return to is a waste of
-    * cycles.  Detect which case applies and set mj_ExtraMarks if we want to
+    * cycles.  Detect which case applies and set mj_ExtraMarks if we want to
     * issue "unnecessary" MARK calls.
     *
     * Currently, only Material wants the extra MARKs, and it will be helpful
index 39b687f221aed96fb12d9597e6cbc42e2d97dfb3..07841246ebcaedecf1c374d5c99d7f159ae111bf 100644 (file)
@@ -329,7 +329,7 @@ ExecRecursiveUnionReScan(RecursiveUnionState *node, ExprContext *exprCtxt)
 
    /*
     * if chgParam of subnode is not null then plan will be re-scanned by
-    * first ExecProcNode.  Because of above, we only have to do this to the
+    * first ExecProcNode.  Because of above, we only have to do this to the
     * non-recursive term.
     */
    if (outerPlan->chgParam == NULL)
index e5173a65b5db19cd492a670ef928c63a582f89fc..76aa377382515a7845665e75a1f37f50a67904e5 100644 (file)
@@ -308,7 +308,7 @@ ExecReScanResult(ResultState *node, ExprContext *exprCtxt)
 
    /*
     * If chgParam of subnode is not null then plan will be re-scanned by
-    * first ExecProcNode.  However, if caller is passing us an exprCtxt then
+    * first ExecProcNode.  However, if caller is passing us an exprCtxt then
     * forcibly rescan the subnode now, so that we can pass the exprCtxt down
     * to the subnode (needed for gated indexscan).
     */
index cff155abe676f0e8d67049b3d40a948f746a3b27..90a180e46897d069e80f8dc9abd8bda01cf6d32e 100644 (file)
@@ -5,7 +5,7 @@
  *
  * The input of a SetOp node consists of tuples from two relations,
  * which have been combined into one dataset, with a junk attribute added
- * that shows which relation each tuple came from. In SETOP_SORTED mode,
+ * that shows which relation each tuple came from.  In SETOP_SORTED mode,
  * the input has furthermore been sorted according to all the grouping
  * columns (ie, all the non-junk attributes).  The SetOp node scans each
  * group of identical tuples to determine how many came from each input
@@ -18,7 +18,7 @@
  * relation is the left-hand one for EXCEPT, and tries to make the smaller
  * input relation come first for INTERSECT.  We build a hash table in memory
  * with one entry for each group of identical tuples, and count the number of
- * tuples in the group from each relation. After seeing all the input, we
+ * tuples in the group from each relation.  After seeing all the input, we
  * scan the hashtable and generate the correct output using those counts.
  * We can avoid making hashtable entries for any tuples appearing only in the
  * second input relation, since they cannot result in any output.
@@ -267,7 +267,7 @@ setop_retrieve_direct(SetOpState *setopstate)
 
        /*
         * Store the copied first input tuple in the tuple table slot reserved
-        * for it.  The tuple will be deleted when it is cleared from the
+        * for it.  The tuple will be deleted when it is cleared from the
         * slot.
         */
        ExecStoreTuple(setopstate->grp_firstTuple,
index b2c771f410b456a2747b04d34fcae1f3bf1cc863..1aa1706d04897244bf479a165403f3fdc4d51a59 100644 (file)
@@ -259,12 +259,12 @@ ExecScanSubPlan(SubPlanState *node,
     * semantics for ANY_SUBLINK or AND semantics for ALL_SUBLINK.
     * (ROWCOMPARE_SUBLINK doesn't allow multiple tuples from the subplan.)
     * NULL results from the combining operators are handled according to the
-    * usual SQL semantics for OR and AND.  The result for no input tuples is
+    * usual SQL semantics for OR and AND.  The result for no input tuples is
     * FALSE for ANY_SUBLINK, TRUE for ALL_SUBLINK, NULL for
     * ROWCOMPARE_SUBLINK.
     *
     * For EXPR_SUBLINK we require the subplan to produce no more than one
-    * tuple, else an error is raised.  If zero tuples are produced, we return
+    * tuple, else an error is raised.  If zero tuples are produced, we return
     * NULL.  Assuming we get a tuple, we just use its first column (there can
     * be only one non-junk column in this case).
     *
@@ -407,7 +407,7 @@ ExecScanSubPlan(SubPlanState *node,
    else if (!found)
    {
        /*
-        * deal with empty subplan result.  result/isNull were previously
+        * deal with empty subplan result.  result/isNull were previously
         * initialized correctly for all sublink types except EXPR and
         * ROWCOMPARE; for those, return NULL.
         */
@@ -902,7 +902,7 @@ ExecInitSubPlan(SubPlan *subplan, PlanState *parent)
  *
  * This is called from ExecEvalParam() when the value of a PARAM_EXEC
  * parameter is requested and the param's execPlan field is set (indicating
- * that the param has not yet been evaluated). This allows lazy evaluation
+ * that the param has not yet been evaluated).  This allows lazy evaluation
  * of initplans: we don't run the subplan until/unless we need its output.
  * Note that this routine MUST clear the execPlan fields of the plan's
  * output parameters after evaluating them!
@@ -1130,7 +1130,7 @@ ExecInitAlternativeSubPlan(AlternativeSubPlan *asplan, PlanState *parent)
    /*
     * Select the one to be used.  For this, we need an estimate of the number
     * of executions of the subplan.  We use the number of output rows
-    * expected from the parent plan node.  This is a good estimate if we are
+    * expected from the parent plan node.  This is a good estimate if we are
     * in the parent's targetlist, and an underestimate (but probably not by
     * more than a factor of 2) if we are in the qual.
     */
index 7af42ccb4a7a824972753a0d5e8c9881a6dbcce3..2dd26889f8c5781ea28548074f802161aa60bc59 100644 (file)
@@ -98,7 +98,7 @@ ExecInitSubqueryScan(SubqueryScan *node, EState *estate, int eflags)
    Assert(!(eflags & EXEC_FLAG_MARK));
 
    /*
-    * SubqueryScan should not have any "normal" children.  Also, if planner
+    * SubqueryScan should not have any "normal" children.  Also, if planner
     * left anything in subrtable, it's fishy.
     */
    Assert(outerPlan(node) == NULL);
@@ -209,7 +209,7 @@ ExecSubqueryReScan(SubqueryScanState *node, ExprContext *exprCtxt)
 
    /*
     * ExecReScan doesn't know about my subplan, so I have to do
-    * changed-parameter signaling myself.  This is just as well, because the
+    * changed-parameter signaling myself.  This is just as well, because the
     * subplan has its own memory context in which its chgParam state lives.
     */
    if (node->ss.ps.chgParam != NULL)
index 8878e6ede9ecbbeeb864ded015798cefd7d10dd4..9498a5d900d36ba8e991f88b8b892011e7d8c7d4 100644 (file)
@@ -4,7 +4,7 @@
  *   Routines to handle unique'ing of queries where appropriate
  *
  * Unique is a very simple node type that just filters out duplicate
- * tuples from a stream of sorted tuples from its subplan. It's essentially
+ * tuples from a stream of sorted tuples from its subplan.  It's essentially
  * a dumbed-down form of Group: the duplicate-removal functionality is
  * identical.  However, Unique doesn't do projection nor qual checking,
  * so it's marginally more efficient for cases where neither is needed.
index 0ce1f576dc079c96a4b000ea2be662d8ec6cd6b9..7875c1b92c4fc2a831c7445d5f56e3bd2989f717 100644 (file)
@@ -205,7 +205,7 @@ ExecInitValuesScan(ValuesScan *node, EState *estate, int eflags)
    planstate = &scanstate->ss.ps;
 
    /*
-    * Create expression contexts.  We need two, one for per-sublist
+    * Create expression contexts.  We need two, one for per-sublist
     * processing and one for execScan.c to use for quals and projections. We
     * cheat a little by using ExecAssignExprContext() to build both.
     */
index 3cd71eb9f034d8d511c8ff84386715d30fef3db0..4c765e15faa23125ab82a06bd78aa3bf03b07c1d 100644 (file)
@@ -4,7 +4,7 @@
  *   routines to handle WindowAgg nodes.
  *
  * A WindowAgg node evaluates "window functions" across suitable partitions
- * of the input tuple set. Any one WindowAgg works for just a single window
+ * of the input tuple set.  Any one WindowAgg works for just a single window
  * specification, though it can evaluate multiple window functions sharing
  * identical window specifications.  The input tuples are required to be
  * delivered in sorted order, with the PARTITION BY columns (if any) as
@@ -14,7 +14,7 @@
  *
  * Since window functions can require access to any or all of the rows in
  * the current partition, we accumulate rows of the partition into a
- * tuplestore. The window functions are called using the WindowObject API
+ * tuplestore.  The window functions are called using the WindowObject API
  * so that they can access those rows as needed.
  *
  * We also support using plain aggregate functions as window functions.
@@ -295,7 +295,7 @@ advance_windowaggregate(WindowAggState *winstate,
 
    /*
     * If pass-by-ref datatype, must copy the new value into wincontext and
-    * pfree the prior transValue.  But if transfn returned a pointer to its
+    * pfree the prior transValue.  But if transfn returned a pointer to its
     * first input, we don't need to do anything.
     */
    if (!peraggstate->transtypeByVal &&
@@ -427,7 +427,7 @@ eval_windowaggregates(WindowAggState *winstate)
     * TODO: In the future, we should implement the full SQL-standard set of
     * framing rules.  We could implement the other cases by recalculating the
     * aggregates whenever a row exits the frame.  That would be pretty slow,
-    * though.  For aggregates like SUM and COUNT we could implement a
+    * though.  For aggregates like SUM and COUNT we could implement a
     * "negative transition function" that would be called for each row as it
     * exits the frame.  We'd have to think about avoiding recalculation of
     * volatile arguments of aggregate functions, too.
@@ -467,7 +467,7 @@ eval_windowaggregates(WindowAggState *winstate)
     * Advance until we reach a row not in frame (or end of partition).
     *
     * Note the loop invariant: agg_row_slot is either empty or holds the row
-    * at position aggregatedupto.  The agg_ptr read pointer must always point
+    * at position aggregatedupto.  The agg_ptr read pointer must always point
     * to the next row to read into agg_row_slot.
     */
    agg_row_slot = winstate->agg_row_slot;
@@ -712,7 +712,7 @@ spool_tuples(WindowAggState *winstate, int64 pos)
 
    /*
     * If the tuplestore has spilled to disk, alternate reading and writing
-    * becomes quite expensive due to frequent buffer flushes.  It's cheaper
+    * becomes quite expensive due to frequent buffer flushes.  It's cheaper
     * to force the entire partition to get spooled in one go.
     *
     * XXX this is a horrid kluge --- it'd be better to fix the performance
@@ -803,7 +803,7 @@ release_partition(WindowAggState *winstate)
  * to our window framing rule
  *
  * The caller must have already determined that the row is in the partition
- * and fetched it into a slot. This function just encapsulates the framing
+ * and fetched it into a slot.  This function just encapsulates the framing
  * rules.
  */
 static bool
@@ -1090,8 +1090,8 @@ ExecInitWindowAgg(WindowAgg *node, EState *estate, int eflags)
    winstate->ss.ps.state = estate;
 
    /*
-    * Create expression contexts.  We need two, one for per-input-tuple
-    * processing and one for per-output-tuple processing.  We cheat a little
+    * Create expression contexts.  We need two, one for per-input-tuple
+    * processing and one for per-output-tuple processing.  We cheat a little
     * by using ExecAssignExprContext() to build both.
     */
    ExecAssignExprContext(estate, &winstate->ss.ps);
@@ -1621,7 +1621,7 @@ window_gettupleslot(WindowObject winobj, int64 pos, TupleTableSlot *slot)
  * requested amount of space.  Subsequent calls just return the same chunk.
  *
  * Memory obtained this way is normally used to hold state that should be
- * automatically reset for each new partition. If a window function wants
+ * automatically reset for each new partition.  If a window function wants
  * to hold state across the whole query, fcinfo->fn_extra can be used in the
  * usual way for that.
  */
index 87a0204525d06604d4ad0767ee2d2ef7ac8b7bca..5ab5fca8fc30e56c9e98d242a7f55a36a6976887 100644 (file)
@@ -74,7 +74,7 @@ ExecWorkTableScan(WorkTableScanState *node)
 {
    /*
     * On the first call, find the ancestor RecursiveUnion's state via the
-    * Param slot reserved for it.  (We can't do this during node init because
+    * Param slot reserved for it.  (We can't do this during node init because
     * there are corner cases where we'll get the init call before the
     * RecursiveUnion does.)
     */
index 0f8f742caa7d8de81027d2156220b199e5d1ebae..0ba7595e075ead2807cda402180dc34b142fe210 100644 (file)
@@ -254,7 +254,7 @@ AtEOSubXact_SPI(bool isCommit, SubTransactionId mySubid)
        }
 
        /*
-        * Pop the stack entry and reset global variables.  Unlike
+        * Pop the stack entry and reset global variables.  Unlike
         * SPI_finish(), we don't risk switching to memory contexts that might
         * be already gone.
         */
@@ -957,7 +957,7 @@ SPI_cursor_open(const char *name, SPIPlanPtr plan,
 /*
  * SPI_cursor_open_with_args()
  *
- * Parse and plan a query and open it as a portal. Like SPI_execute_with_args,
+ * Parse and plan a query and open it as a portal.  Like SPI_execute_with_args,
  * we can tell the planner to rely on the parameter values as constants,
  * because the plan will only be used once.
  */
@@ -1167,7 +1167,7 @@ SPI_cursor_open_internal(const char *name, SPIPlanPtr plan,
    }
 
    /*
-    * Disallow SCROLL with SELECT FOR UPDATE.  This is not redundant with the
+    * Disallow SCROLL with SELECT FOR UPDATE.  This is not redundant with the
     * check in transformDeclareCursorStmt because the cursor options might
     * not have come through there.
     */
@@ -1425,7 +1425,7 @@ SPI_plan_is_valid(SPIPlanPtr plan)
 /*
  * SPI_result_code_string --- convert any SPI return code to a string
  *
- * This is often useful in error messages. Most callers will probably
+ * This is often useful in error messages.  Most callers will probably
  * only pass negative (error-case) codes, but for generality we recognize
  * the success codes too.
  */
@@ -1847,7 +1847,7 @@ _SPI_execute_plan(SPIPlanPtr plan, ParamListInfo paramLI,
 
            /*
             * The last canSetTag query sets the status values returned to the
-            * caller.  Be careful to free any tuptables not returned, to
+            * caller.  Be careful to free any tuptables not returned, to
             * avoid intratransaction memory leak.
             */
            if (canSetTag)
index 10723a501468e6c9a37145c145302d77c7c0356f..f97ccf4dd6947b626f96175d4353ada0c3045059 100644 (file)
@@ -5,7 +5,7 @@
  *   a Tuplestore.
  *
  * Optionally, we can force detoasting (but not decompression) of out-of-line
- * toasted values. This is to support cursors WITH HOLD, which must retain
+ * toasted values.  This is to support cursors WITH HOLD, which must retain
  * data even if the underlying table is dropped.
  *
  *
index 2fc4422a3143d19506aee81e87ccfa30db3be125..b16725f4d9b32de191473e56dc0799bcd2a67550 100644 (file)
@@ -99,7 +99,7 @@ appendStringInfo(StringInfo str, const char *fmt,...)
  * appendStringInfoVA
  *
  * Attempt to format text data under the control of fmt (an sprintf-style
- * format string) and append it to whatever is already in str. If successful
+ * format string) and append it to whatever is already in str.  If successful
  * return true; if not (because there's not enough space), return false
  * without modifying str.  Typically the caller would enlarge str and retry
  * on false return --- see appendStringInfo for standard usage pattern.
@@ -234,7 +234,7 @@ enlargeStringInfo(StringInfo str, int needed)
    int         newlen;
 
    /*
-    * Guard against out-of-range "needed" values.  Without this, we can get
+    * Guard against out-of-range "needed" values.  Without this, we can get
     * an overflow or infinite loop in the following.
     */
    if (needed < 0)             /* should not happen */
index 8c76eafef5668c320b2bd1a54c6ef7e34d2f2d40..79e30bc4780b376975625b50c13d886b7b4eb26a 100644 (file)
@@ -52,7 +52,7 @@ static int    recv_and_check_password_packet(Port *port);
 /* Max size of username ident server can return */
 #define IDENT_USERNAME_MAX 512
 
-/* Standard TCP port number for Ident service. Assigned by IANA */
+/* Standard TCP port number for Ident service.  Assigned by IANA */
 #define IDENT_PORT 113
 
 static int authident(hbaPort *port);
@@ -580,7 +580,7 @@ recv_password_packet(Port *port)
            (errmsg("received password packet")));
 
    /*
-    * Return the received string.  Note we do not attempt to do any
+    * Return the received string.  Note we do not attempt to do any
     * character-set conversion on it; since we don't yet know the client's
     * encoding, there wouldn't be much point.
     */
@@ -1480,7 +1480,7 @@ interpret_ident_response(const char *ident_response,
 /*
  * Talk to the ident server on host "remote_ip_addr" and find out who
  * owns the tcp connection from his port "remote_port" to port
- * "local_port_addr" on host "local_ip_addr".  Return the user name the
+ * "local_port_addr" on host "local_ip_addr".  Return the user name the
  * ident server gives as "*ident_user".
  *
  * IP addresses and port numbers are in network byte order.
@@ -1842,7 +1842,7 @@ ident_unix(int sock, char *ident_user)
 
 /*
  * Determine the username of the initiator of the connection described
- * by "port".  Then look in the usermap file under the usermap
+ * by "port".  Then look in the usermap file under the usermap
  * port->hba->usermap and see if that user is equivalent to Postgres user
  * port->user.
  *
index ee0991affa1707f6861ffcb4d9be1afdb2f58099..094e74b4559f345616e3dfb66d8eee7c1e01231a 100644 (file)
  *   impersonations.
  *
  *   Another benefit of EDH is that it allows the backend and
- *   clients to use DSA keys.  DSA keys can only provide digital
+ *   clients to use DSA keys.  DSA keys can only provide digital
  *   signatures, not encryption, and are often acceptable in
  *   jurisdictions where RSA keys are unacceptable.
  *
  *   The downside to EDH is that it makes it impossible to
  *   use ssldump(1) if there's a problem establishing an SSL
- *   session.  In this case you'll need to temporarily disable
+ *   session.  In this case you'll need to temporarily disable
  *   EDH by commenting out the callback.
  *
  *   ...
index 5762fad3efb632bbe900cb908d454251f05358c1..4ed85713d202011e6a31fb3c3679682a476dc957 100644 (file)
@@ -50,7 +50,7 @@ static List *parsed_hba_lines = NIL;
  * These variables hold the pre-parsed contents of the ident
  * configuration files, as well as the flat auth file.
  * Each is a list of sublists, one sublist for
- * each (non-empty, non-comment) line of the file. Each sublist's
+ * each (non-empty, non-comment) line of the file.  Each sublist's
  * first item is an integer line number (so we can give somewhat-useful
  * location info in error messages).  Remaining items are palloc'd strings,
  * one string per token on the line.  Note there will always be at least
@@ -1745,7 +1745,7 @@ load_ident(void)
 
 /*
  * Determine what authentication method should be used when accessing database
- * "database" from frontend "raddr", user "user".  Return the method and
+ * "database" from frontend "raddr", user "user".  Return the method and
  * an optional argument (stored in fields of *port), and STATUS_OK.
  *
  * Note that STATUS_ERROR indicates a problem with the hba config file.
index 91cfe187ee947e012c5b9248c26a91c7e8ab7c2c..d5e6cab2014edf2ff854a08ff97e2a127ee11b52 100644 (file)
@@ -2,7 +2,7 @@
  * md5.c
  *
  * Implements  the  MD5 Message-Digest Algorithm as specified in
- * RFC  1321.  This  implementation  is a simple one, in that it
+ * RFC  1321.  This  implementation  is a simple one, in that it
  * needs  every  input  byte  to  be  buffered  before doing any
  * calculations.  I  do  not  expect  this  file  to be used for
  * general  purpose  MD5'ing  of large amounts of data, only for
index a89701ce1df0406fedf17fc5336715c6952a68ca..60d8d3b289e243c60e69ec6efacc7d7520156363 100644 (file)
@@ -401,7 +401,7 @@ StreamServerPort(int family, char *hostName, unsigned short portNumber,
        /*
         * Note: This might fail on some OS's, like Linux older than
         * 2.4.21-pre3, that don't have the IPV6_V6ONLY socket option, and map
-        * ipv4 addresses to ipv6.  It will show ::ffff:ipv4 for all ipv4
+        * ipv4 addresses to ipv6.  It will show ::ffff:ipv4 for all ipv4
         * connections.
         */
        err = bind(fd, addr->ai_addr, addr->ai_addrlen);
@@ -981,7 +981,7 @@ pq_getmessage(StringInfo s, int maxlen)
    if (len > 0)
    {
        /*
-        * Allocate space for message.  If we run out of room (ridiculously
+        * Allocate space for message.  If we run out of room (ridiculously
         * large message), we will elog(ERROR), but we want to discard the
         * message body so as not to lose communication sync.
         */
index 7731d19eaf1dee2f980cda15a543cfbe7b75b96a..c122b1a66ea4f10c53ecf16308c103ef635ac56d 100644 (file)
@@ -120,7 +120,7 @@ pq_sendbytes(StringInfo buf, const char *data, int datalen)
  *     pq_sendcountedtext - append a counted text string (with character set conversion)
  *
  * The data sent to the frontend by this routine is a 4-byte count field
- * followed by the string. The count includes itself or not, as per the
+ * followed by the string.  The count includes itself or not, as per the
  * countincludesself flag (pre-3.0 protocol requires it to include itself).
  * The passed text string need not be null-terminated, and the data sent
  * to the frontend isn't either.
index ed26fbdb5127eb621bf8b02d6a18eb00f17b1a45..67e0114b037a46bb12ad0063ec558457286c5994 100644 (file)
  * Ultrix and SunOS provide BSD signal(2) semantics by default.
  *
  * SVID2 and POSIX signal(2) semantics differ from BSD signal(2)
- * semantics.  We can use the POSIX sigaction(2) on systems that
+ * semantics.  We can use the POSIX sigaction(2) on systems that
  * allow us to request restartable signals (SA_RESTART).
  *
  * Some systems don't allow restartable signals at all unless we
  * link to a special BSD library.
  *
  * We devoutly hope that there aren't any systems that provide
- * neither POSIX signals nor BSD signals.  The alternative
+ * neither POSIX signals nor BSD signals.  The alternative
  * is to do signal-handler reinstallation, which doesn't work well
  * at all.
  * ------------------------------------------------------------------------*/
index 10ed18c281f42e08a1d55cd3eea8d4b56782de63..84101459bec58416f6fd1571137c3c448f669f55 100644 (file)
@@ -68,7 +68,7 @@ main(int argc, char *argv[])
 
    /*
     * Remember the physical location of the initially given argv[] array for
-    * possible use by ps display.  On some platforms, the argv[] storage must
+    * possible use by ps display.  On some platforms, the argv[] storage must
     * be overwritten in order to set the process title for ps. In such cases
     * save_ps_display_args makes and returns a new copy of the argv[] array.
     *
@@ -89,10 +89,10 @@ main(int argc, char *argv[])
    MemoryContextInit();
 
    /*
-    * Set up locale information from environment.  Note that LC_CTYPE and
+    * Set up locale information from environment.  Note that LC_CTYPE and
     * LC_COLLATE will be overridden later from pg_control if we are in an
     * already-initialized database.  We set them here so that they will be
-    * available to fill pg_control during initdb.  LC_MESSAGES will get set
+    * available to fill pg_control during initdb.  LC_MESSAGES will get set
     * later during GUC option processing, but we set it here to allow startup
     * error messages to be localized.
     */
@@ -201,7 +201,7 @@ main(int argc, char *argv[])
 
 
 /*
- * Place platform-specific startup hacks here. This is the right
+ * Place platform-specific startup hacks here.  This is the right
  * place to put code that must be executed early in launch of either a
  * postmaster, a standalone backend, or a standalone bootstrap run.
  * Note that this code will NOT be executed when a backend or
index 55f3537d80e85aeed50651af06088e1d70bf4d15..0384336a07c3cb8156a8dd3e44ea5e1c648c8517 100644 (file)
@@ -39,7 +39,7 @@
  * where x's are unspecified bits.  The two's complement negative is formed
  * by inverting all the bits and adding one.  Inversion gives
  *             yyyyyy01111
- * where each y is the inverse of the corresponding x. Incrementing gives
+ * where each y is the inverse of the corresponding x.  Incrementing gives
  *             yyyyyy10000
  * and then ANDing with the original value gives
  *             00000010000
@@ -721,7 +721,7 @@ bms_join(Bitmapset *a, Bitmapset *b)
 /*----------
  * bms_first_member - find and remove first member of a set
  *
- * Returns -1 if set is empty. NB: set is destructively modified!
+ * Returns -1 if set is empty.  NB: set is destructively modified!
  *
  * This is intended as support for iterating through the members of a set.
  * The typical pattern is
index fdb30f77e950cabc854f085c933357bf1084b659..dfe2c48aa6b189c1594a36e60286ed10289e8c7c 100644 (file)
@@ -4,7 +4,7 @@
  *   Copy functions for Postgres tree nodes.
  *
  * NOTE: we currently support copying all node types found in parse and
- * plan trees. We do not support copying executor state trees; there
+ * plan trees.  We do not support copying executor state trees; there
  * is no need for that, and no point in maintaining all the code that
  * would be needed.  We also do not support copying Path trees, mainly
  * because the circular linkages between RelOptInfo and Path nodes can't
@@ -30,7 +30,7 @@
 
 /*
  * Macros to simplify copying of different kinds of fields.  Use these
- * wherever possible to reduce the chance for silly typos. Note that these
+ * wherever possible to reduce the chance for silly typos.  Note that these
  * hard-wire the convention that the local variables in a Copy routine are
  * named 'newnode' and 'from'.
  */
@@ -867,7 +867,7 @@ _copyIntoClause(IntoClause *from)
 
 /*
  * We don't need a _copyExpr because Expr is an abstract supertype which
- * should never actually get instantiated. Also, since it has no common
+ * should never actually get instantiated.  Also, since it has no common
  * fields except NodeTag, there's no need for a helper routine to factor
  * out copying the common fields...
  */
index 445a59f731d9f48ebf1ac4d51faedb9e6579b1ea..dc62a9584374a4e98612cb645d8c6edd80f01916 100644 (file)
@@ -11,7 +11,7 @@
  * be handled easily in a simple depth-first traversal.
  *
  * Currently, in fact, equal() doesn't know how to compare Plan trees
- * either. This might need to be fixed someday.
+ * either.  This might need to be fixed someday.
  *
  * NOTE: it is intentional that parse location fields (in nodes that have
  * one) are not compared.  This is because we want, for example, a variable
@@ -34,8 +34,8 @@
 
 
 /*
- * Macros to simplify comparison of different kinds of fields. Use these
- * wherever possible to reduce the chance for silly typos. Note that these
+ * Macros to simplify comparison of different kinds of fields.  Use these
+ * wherever possible to reduce the chance for silly typos.  Note that these
  * hard-wire the convention that the local variables in an Equal routine are
  * named 'a' and 'b'.
  */
@@ -125,7 +125,7 @@ _equalIntoClause(IntoClause *a, IntoClause *b)
 
 /*
  * We don't need an _equalExpr because Expr is an abstract supertype which
- * should never actually get instantiated. Also, since it has no common
+ * should never actually get instantiated.  Also, since it has no common
  * fields except NodeTag, there's no need for a helper routine to factor
  * out comparing the common fields...
  */
@@ -773,9 +773,9 @@ static bool
 _equalPlaceHolderVar(PlaceHolderVar *a, PlaceHolderVar *b)
 {
    /*
-    * We intentionally do not compare phexpr.  Two PlaceHolderVars with the
+    * We intentionally do not compare phexpr.  Two PlaceHolderVars with the
     * same ID and levelsup should be considered equal even if the contained
-    * expressions have managed to mutate to different states.  One way in
+    * expressions have managed to mutate to different states.  One way in
     * which that can happen is that initplan sublinks would get replaced by
     * differently-numbered Params when sublink folding is done.  (The end
     * result of such a situation would be some unreferenced initplans, which
index 04e17439e8ce67934c4ace35f4efc5566b4227d0..b3dbb56768737e1281703d45cec8b9891414aac0 100644 (file)
@@ -793,7 +793,7 @@ list_union_oid(List *list1, List *list2)
  * "intersection" if list1 is known unique beforehand.
  *
  * This variant works on lists of pointers, and determines list
- * membership via equal(). Note that the list1 member will be pointed
+ * membership via equal().  Note that the list1 member will be pointed
  * to in the result.
  */
 List *
@@ -985,7 +985,7 @@ list_append_unique_oid(List *list, Oid datum)
  * via equal().
  *
  * This is almost the same functionality as list_union(), but list1 is
- * modified in-place rather than being copied. Note also that list2's cells
+ * modified in-place rather than being copied.  Note also that list2's cells
  * are not inserted in list1, so the analogy to list_concat() isn't perfect.
  */
 List *
index 0d21c9fcb0d47be33fb0d0de6999c0a463d34d9b..da51235c3da785dc31e885a5193d75a7d2b7a5a4 100644 (file)
@@ -231,7 +231,7 @@ exprType(Node *expr)
 /*
  * exprTypmod -
  *   returns the type-specific modifier of the expression's result type,
- *   if it can be determined.  In many cases, it can't and we return -1.
+ *   if it can be determined.  In many cases, it can't and we return -1.
  */
 int32
 exprTypmod(Node *expr)
@@ -989,8 +989,8 @@ leftmostLoc(int loc1, int loc2)
  *
  * The walker routine should return "false" to continue the tree walk, or
  * "true" to abort the walk and immediately return "true" to the top-level
- * caller. This can be used to short-circuit the traversal if the walker
- * has found what it came for. "false" is returned to the top-level caller
+ * caller.  This can be used to short-circuit the traversal if the walker
+ * has found what it came for.  "false" is returned to the top-level caller
  * iff no invocation of the walker returned "true".
  *
  * The node types handled by expression_tree_walker include all those
@@ -1028,7 +1028,7 @@ leftmostLoc(int loc1, int loc2)
  *
  * expression_tree_walker will handle SubPlan nodes by recursing normally
  * into the "testexpr" and the "args" list (which are expressions belonging to
- * the outer plan).  It will not touch the completed subplan, however. Since
+ * the outer plan).  It will not touch the completed subplan, however.  Since
  * there is no link to the original Query, it is not possible to recurse into
  * subselects of an already-planned expression tree.  This is OK for current
  * uses, but may need to be revisited in future.
@@ -2032,7 +2032,7 @@ expression_tree_mutator(Node *node,
  * This routine exists just to reduce the number of places that need to know
  * where all the expression subtrees of a Query are.  Note it can be used
  * for starting a walk at top level of a Query regardless of whether the
- * mutator intends to descend into subqueries. It is also useful for
+ * mutator intends to descend into subqueries.  It is also useful for
  * descending into subqueries within a mutator.
  *
  * Some callers want to suppress mutating of certain items in the Query,
@@ -2042,7 +2042,7 @@ expression_tree_mutator(Node *node,
  * indicated items.  (More flag bits may be added as needed.)
  *
  * Normally the Query node itself is copied, but some callers want it to be
- * modified in-place; they must pass QTW_DONT_COPY_QUERY in flags. All
+ * modified in-place; they must pass QTW_DONT_COPY_QUERY in flags.  All
  * modified substructure is safely copied in any case.
  */
 Query *
index c8c4409fb95fa7a412af61b02d7488cd55573103..a0a1fb065b668b9bd3f9c9a22fd44a12500653e6 100644 (file)
@@ -13,7 +13,7 @@
  * NOTES
  *   Every node type that can appear in stored rules' parsetrees *must*
  *   have an output function defined here (as well as an input function
- *   in readfuncs.c).  For use in debugging, we also provide output
+ *   in readfuncs.c).  For use in debugging, we also provide output
  *   functions for nodes that appear in raw parsetrees, path, and plan trees.
  *   These nodes however need not have input functions.
  *
@@ -30,8 +30,8 @@
 
 
 /*
- * Macros to simplify output of different kinds of fields. Use these
- * wherever possible to reduce the chance for silly typos. Note that these
+ * Macros to simplify output of different kinds of fields.  Use these
+ * wherever possible to reduce the chance for silly typos.  Note that these
  * hard-wire conventions about the names of the local variables in an Out
  * routine.
  */
index 4687d60ec18dc642c8a2dab7d47a4960090536c4..cec5dc18968b086ea03a06dd0c310dd6760ea3ad 100644 (file)
@@ -85,21 +85,21 @@ stringToNode(char *str)
  *   Backslashes themselves must also be backslashed for consistency.
  *   Any other character can be, but need not be, backslashed as well.
  * * If the resulting token is '<>' (with no backslash), it is returned
- *   as a non-NULL pointer to the token but with length == 0.  Note that
+ *   as a non-NULL pointer to the token but with length == 0.  Note that
  *   there is no other way to get a zero-length token.
  *
  * Returns a pointer to the start of the next token, and the length of the
- * token (including any embedded backslashes!) in *length. If there are
+ * token (including any embedded backslashes!) in *length.  If there are
  * no more tokens, NULL and 0 are returned.
  *
  * NOTE: this routine doesn't remove backslashes; the caller must do so
  * if necessary (see "debackslash").
  *
  * NOTE: prior to release 7.0, this routine also had a special case to treat
- * a token starting with '"' as extending to the next '"'. This code was
+ * a token starting with '"' as extending to the next '"'.  This code was
  * broken, however, since it would fail to cope with a string containing an
  * embedded '"'.  I have therefore removed this special case, and instead
- * introduced rules for using backslashes to quote characters. Higher-level
+ * introduced rules for using backslashes to quote characters.  Higher-level
  * code should add backslashes to a string constant to ensure it is treated
  * as a single token.
  */
@@ -258,7 +258,7 @@ nodeTokenType(char *token, int length)
  *   Slightly higher-level reader.
  *
  * This routine applies some semantic knowledge on top of the purely
- * lexical tokenizer pg_strtok().  It can read
+ * lexical tokenizer pg_strtok().   It can read
  * * Value token nodes (integers, floats, or strings);
  * * General nodes (via parseNodeString() from readfuncs.c);
  * * Lists of the above;
index b27cd513a591fda2c29ec77c21ffa4d11809c2e6..a7e58bf367dee268fe6f816601b2c24772a42c53 100644 (file)
@@ -12,7 +12,7 @@
  *
  * NOTES
  *   Path and Plan nodes do not have any readfuncs support, because we
- *   never have occasion to read them in.  (There was once code here that
+ *   never have occasion to read them in.  (There was once code here that
  *   claimed to read them, but it was broken as well as unused.)  We
  *   never read executor state trees, either.
  *
@@ -34,7 +34,7 @@
 
 /*
  * Macros to simplify reading of different kinds of fields.  Use these
- * wherever possible to reduce the chance for silly typos. Note that these
+ * wherever possible to reduce the chance for silly typos.  Note that these
  * hard-wire conventions about the names of the local variables in a Read
  * routine.
  */
 /*
  * NOTE: use atoi() to read values written with %d, or atoui() to read
  * values written with %u in outfuncs.c.  An exception is OID values,
- * for which use atooid(). (As of 7.1, outfuncs.c writes OIDs as %u,
+ * for which use atooid().  (As of 7.1, outfuncs.c writes OIDs as %u,
  * but this will probably change in the future.)
  */
 #define atoui(x)  ((unsigned int) strtoul((x), NULL, 10))
@@ -539,7 +539,7 @@ _readOpExpr(void)
    /*
     * The opfuncid is stored in the textual format primarily for debugging
     * and documentation reasons.  We want to always read it as zero to force
-    * it to be re-looked-up in the pg_operator entry.  This ensures that
+    * it to be re-looked-up in the pg_operator entry.  This ensures that
     * stored rules don't have hidden dependencies on operators' functions.
     * (We don't currently support an ALTER OPERATOR command, but might
     * someday.)
@@ -568,7 +568,7 @@ _readDistinctExpr(void)
    /*
     * The opfuncid is stored in the textual format primarily for debugging
     * and documentation reasons.  We want to always read it as zero to force
-    * it to be re-looked-up in the pg_operator entry.  This ensures that
+    * it to be re-looked-up in the pg_operator entry.  This ensures that
     * stored rules don't have hidden dependencies on operators' functions.
     * (We don't currently support an ALTER OPERATOR command, but might
     * someday.)
@@ -597,7 +597,7 @@ _readScalarArrayOpExpr(void)
    /*
     * The opfuncid is stored in the textual format primarily for debugging
     * and documentation reasons.  We want to always read it as zero to force
-    * it to be re-looked-up in the pg_operator entry.  This ensures that
+    * it to be re-looked-up in the pg_operator entry.  This ensures that
     * stored rules don't have hidden dependencies on operators' functions.
     * (We don't currently support an ALTER OPERATOR command, but might
     * someday.)
@@ -921,7 +921,7 @@ _readNullIfExpr(void)
    /*
     * The opfuncid is stored in the textual format primarily for debugging
     * and documentation reasons.  We want to always read it as zero to force
-    * it to be re-looked-up in the pg_operator entry.  This ensures that
+    * it to be re-looked-up in the pg_operator entry.  This ensures that
     * stored rules don't have hidden dependencies on operators' functions.
     * (We don't currently support an ALTER OPERATOR command, but might
     * someday.)
index 20d792c479ac062a9b6ced2d9ebd0606e151ac4d..b32757af12625cc314e30dcb859c0ef9b458ab86 100644 (file)
@@ -19,7 +19,7 @@
  * of lossiness.  In theory we could fall back to page ranges at some
  * point, but for now that seems useless complexity.
  *
- * We also support the notion of candidate matches, or rechecking. This
+ * We also support the notion of candidate matches, or rechecking.  This
  * means we know that a search need visit only some tuples on a page,
  * but we are not certain that all of those tuples are real matches.
  * So the eventual heap scan must recheck the quals for these tuples only,
@@ -49,7 +49,7 @@
 /*
  * The maximum number of tuples per page is not large (typically 256 with
  * 8K pages, or 1024 with 32K pages).  So there's not much point in making
- * the per-page bitmaps variable size. We just legislate that the size
+ * the per-page bitmaps variable size.  We just legislate that the size
  * is this:
  */
 #define MAX_TUPLES_PER_PAGE  MaxHeapTuplesPerPage
  * for that page in the page table.
  *
  * We actually store both exact pages and lossy chunks in the same hash
- * table, using identical data structures. (This is because dynahash.c's
+ * table, using identical data structures.  (This is because dynahash.c's
  * memory management doesn't allow space to be transferred easily from one
  * hashtable to another.)  Therefore it's best if PAGES_PER_CHUNK is the
- * same as MAX_TUPLES_PER_PAGE, or at least not too different. But we
+ * same as MAX_TUPLES_PER_PAGE, or at least not too different.  But we
  * also want PAGES_PER_CHUNK to be a power of 2 to avoid expensive integer
  * remainder operations.  So, define it like this:
  */
@@ -143,7 +143,7 @@ struct TIDBitmap
 
 /*
  * When iterating over a bitmap in sorted order, a TBMIterator is used to
- * track our progress. There can be several iterators scanning the same
+ * track our progress.  There can be several iterators scanning the same
  * bitmap concurrently.  Note that the bitmap becomes read-only as soon as
  * any iterator is created.
  */
@@ -791,7 +791,7 @@ tbm_find_pageentry(const TIDBitmap *tbm, BlockNumber pageno)
  *
  * If new, the entry is marked as an exact (non-chunk) entry.
  *
- * This may cause the table to exceed the desired memory size. It is
+ * This may cause the table to exceed the desired memory size.  It is
  * up to the caller to call tbm_lossify() at the next safe point if so.
  */
 static PagetableEntry *
@@ -871,7 +871,7 @@ tbm_page_is_lossy(const TIDBitmap *tbm, BlockNumber pageno)
 /*
  * tbm_mark_page_lossy - mark the page number as lossily stored
  *
- * This may cause the table to exceed the desired memory size. It is
+ * This may cause the table to exceed the desired memory size.  It is
  * up to the caller to call tbm_lossify() at the next safe point if so.
  */
 static void
@@ -892,7 +892,7 @@ tbm_mark_page_lossy(TIDBitmap *tbm, BlockNumber pageno)
    chunk_pageno = pageno - bitno;
 
    /*
-    * Remove any extant non-lossy entry for the page.  If the page is its own
+    * Remove any extant non-lossy entry for the page.  If the page is its own
     * chunk header, however, we skip this and handle the case below.
     */
    if (bitno != 0)
index 392cfc5aa318c399077866a9512701a1330fa168..c74c1b25866cfaad96a3c8d3df39fb3a99077bbd 100644 (file)
@@ -59,7 +59,7 @@ geqo_eval(Gene *tour, int num_gene, GeqoEvalData *evaldata)
     * them an artificially bad fitness.
     *
     * init_tour() is aware of this rule and so we should never reject a tour
-    * during the initial filling of the pool.  It seems difficult to persuade
+    * during the initial filling of the pool.  It seems difficult to persuade
     * the recombination logic never to break the rule, however.
     */
    if (num_gene >= 2 && tour[0] > tour[1])
@@ -86,11 +86,11 @@ geqo_eval(Gene *tour, int num_gene, GeqoEvalData *evaldata)
     * not already contain some entries.  The newly added entries will be
     * recycled by the MemoryContextDelete below, so we must ensure that the
     * list is restored to its former state before exiting.  We can do this by
-    * truncating the list to its original length.  NOTE this assumes that any
+    * truncating the list to its original length.  NOTE this assumes that any
     * added entries are appended at the end!
     *
     * We also must take care not to mess up the outer join_rel_hash, if there
-    * is one.  We can do this by just temporarily setting the link to NULL.
+    * is one.  We can do this by just temporarily setting the link to NULL.
     * (If we are dealing with enough join rels, which we very likely are, a
     * new hash table will get built and used locally.)
     */
index 36c5c116dc4b6066e80a391d814db79c29ac0ab6..7a65702365f64f791793fc7ea6a97de03a1dc397 100644 (file)
@@ -272,7 +272,7 @@ set_plain_rel_pathlist(PlannerInfo *root, RelOptInfo *rel, RangeTblEntry *rte)
  * set_append_rel_pathlist
  *   Build access paths for an "append relation"
  *
- * The passed-in rel and RTE represent the entire append relation. The
+ * The passed-in rel and RTE represent the entire append relation.  The
  * relation's contents are computed by appending together the output of
  * the individual member relations.  Note that in the inheritance case,
  * the first member relation is actually the same table as is mentioned in
@@ -342,7 +342,7 @@ set_append_rel_pathlist(PlannerInfo *root, RelOptInfo *rel,
 
        /*
         * We have to copy the parent's targetlist and quals to the child,
-        * with appropriate substitution of variables.  However, only the
+        * with appropriate substitution of variables.  However, only the
         * baserestrictinfo quals are needed before we can check for
         * constraint exclusion; so do that first and then check to see if we
         * can disregard this child.
@@ -485,7 +485,7 @@ set_append_rel_pathlist(PlannerInfo *root, RelOptInfo *rel,
 
    /*
     * Finally, build Append path and install it as the only access path for
-    * the parent rel.  (Note: this is correct even if we have zero or one
+    * the parent rel.  (Note: this is correct even if we have zero or one
     * live subpath due to constraint exclusion.)
     */
    add_path(rel, (Path *) create_append_path(rel, subpaths));
@@ -889,7 +889,7 @@ make_rel_from_joinlist(PlannerInfo *root, List *joinlist)
  *     independent jointree items in the query.  This is > 1.
  *
  * 'initial_rels' is a list of RelOptInfo nodes for each independent
- *     jointree item.  These are the components to be joined together.
+ *     jointree item.  These are the components to be joined together.
  *     Note that levels_needed == list_length(initial_rels).
  *
  * Returns the final level of join relations, i.e., the relation that is
@@ -905,7 +905,7 @@ make_rel_from_joinlist(PlannerInfo *root, List *joinlist)
  * needed for these paths need have been instantiated.
  *
  * Note to plugin authors: the functions invoked during standard_join_search()
- * modify root->join_rel_list and root->join_rel_hash. If you want to do more
+ * modify root->join_rel_list and root->join_rel_hash.  If you want to do more
  * than one join-order search, you'll probably need to save and restore the
  * original states of those data structures.  See geqo_eval() for an example.
  */
@@ -996,7 +996,7 @@ standard_join_search(PlannerInfo *root, int levels_needed, List *initial_rels)
  * column k is found to be unsafe to reference, we set unsafeColumns[k] to
  * TRUE, but we don't reject the subquery overall since column k might
  * not be referenced by some/all quals.  The unsafeColumns[] array will be
- * consulted later by qual_is_pushdown_safe(). It's better to do it this
+ * consulted later by qual_is_pushdown_safe().  It's better to do it this
  * way than to make the checks directly in qual_is_pushdown_safe(), because
  * when the subquery involves set operations we have to check the output
  * expressions in each arm of the set op.
@@ -1089,7 +1089,7 @@ recurse_pushdown_safe(Node *setOp, Query *topquery,
  * check_output_expressions - check subquery's output expressions for safety
  *
  * There are several cases in which it's unsafe to push down an upper-level
- * qual if it references a particular output column of a subquery. We check
+ * qual if it references a particular output column of a subquery.  We check
  * each output column of the subquery and set unsafeColumns[k] to TRUE if
  * that column is unsafe for a pushed-down qual to reference.  The conditions
  * checked here are:
@@ -1107,7 +1107,7 @@ recurse_pushdown_safe(Node *setOp, Query *topquery,
  * of rows returned.  (This condition is vacuous for DISTINCT, because then
  * there are no non-DISTINCT output columns, so we needn't check.  But note
  * we are assuming that the qual can't distinguish values that the DISTINCT
- * operator sees as equal. This is a bit shaky but we have no way to test
+ * operator sees as equal.  This is a bit shaky but we have no way to test
  * for the case, and it's unlikely enough that we shouldn't refuse the
  * optimization just because it could theoretically happen.)
  */
index 34407af6074e3d4ee28bc2f99c71505715d12d40..48674b283d972e1379cb9b22005722702fc6849c 100644 (file)
@@ -59,7 +59,7 @@ static void addRangeClause(RangeQueryClause **rqlist, Node *clause,
  * See clause_selectivity() for the meaning of the additional parameters.
  *
  * Our basic approach is to take the product of the selectivities of the
- * subclauses. However, that's only right if the subclauses have independent
+ * subclauses.  However, that's only right if the subclauses have independent
  * probabilities, and in reality they are often NOT independent.  So,
  * we want to be smarter where we can.
 
@@ -76,12 +76,12 @@ static void addRangeClause(RangeQueryClause **rqlist, Node *clause,
  * see that hisel is the fraction of the range below the high bound, while
  * losel is the fraction above the low bound; so hisel can be interpreted
  * directly as a 0..1 value but we need to convert losel to 1-losel before
- * interpreting it as a value. Then the available range is 1-losel to hisel.
+ * interpreting it as a value.  Then the available range is 1-losel to hisel.
  * However, this calculation double-excludes nulls, so really we need
  * hisel + losel + null_frac - 1.)
  *
  * If either selectivity is exactly DEFAULT_INEQ_SEL, we forget this equation
- * and instead use DEFAULT_RANGE_INEQ_SEL. The same applies if the equation
+ * and instead use DEFAULT_RANGE_INEQ_SEL.  The same applies if the equation
  * yields an impossible (negative) result.
  *
  * A free side-effect is that we can recognize redundant inequalities such
@@ -175,7 +175,7 @@ clauselist_selectivity(PlannerInfo *root,
            {
                /*
                 * If it's not a "<" or ">" operator, just merge the
-                * selectivity in generically.  But if it's the right oprrest,
+                * selectivity in generically.  But if it's the right oprrest,
                 * add the clause to rqlist for later processing.
                 */
                switch (get_oprrest(expr->opno))
@@ -460,14 +460,14 @@ treat_as_join_clause(Node *clause, RestrictInfo *rinfo,
  * nestloop join's inner relation --- varRelid should then be the ID of the
  * inner relation.
  *
- * When varRelid is 0, all variables are treated as variables. This
+ * When varRelid is 0, all variables are treated as variables.  This
  * is appropriate for ordinary join clauses and restriction clauses.
  *
  * jointype is the join type, if the clause is a join clause.  Pass JOIN_INNER
  * if the clause isn't a join clause.
  *
  * sjinfo is NULL for a non-join clause, otherwise it provides additional
- * context information about the join being performed. There are some
+ * context information about the join being performed.  There are some
  * special cases:
  * 1. For a special (not INNER) join, sjinfo is always a member of
  *    root->join_info_list.
@@ -502,7 +502,7 @@ clause_selectivity(PlannerInfo *root,
        /*
         * If the clause is marked pseudoconstant, then it will be used as a
         * gating qual and should not affect selectivity estimates; hence
-        * return 1.0.  The only exception is that a constant FALSE may be
+        * return 1.0.  The only exception is that a constant FALSE may be
         * taken as having selectivity 0.0, since it will surely mean no rows
         * out of the plan.  This case is simple enough that we need not
         * bother caching the result.
@@ -521,11 +521,11 @@ clause_selectivity(PlannerInfo *root,
 
        /*
         * If possible, cache the result of the selectivity calculation for
-        * the clause.  We can cache if varRelid is zero or the clause
+        * the clause.  We can cache if varRelid is zero or the clause
         * contains only vars of that relid --- otherwise varRelid will affect
         * the result, so mustn't cache.  Outer join quals might be examined
         * with either their join's actual jointype or JOIN_INNER, so we need
-        * two cache variables to remember both cases.  Note: we assume the
+        * two cache variables to remember both cases.  Note: we assume the
         * result won't change if we are switching the input relations or
         * considering a unique-ified case, so we only need one cache variable
         * for all non-JOIN_INNER cases.
@@ -682,7 +682,7 @@ clause_selectivity(PlannerInfo *root,
        /*
         * This is not an operator, so we guess at the selectivity. THIS IS A
         * HACK TO GET V4 OUT THE DOOR.  FUNCS SHOULD BE ABLE TO HAVE
-        * SELECTIVITIES THEMSELVES.       -- JMH 7/9/92
+        * SELECTIVITIES THEMSELVES.       -- JMH 7/9/92
         */
        s1 = (Selectivity) 0.3333333;
    }
index fbd45d9b381302ea874c78ae137fbdcaa99d1145..4776189ed9bad9332404dd2188578c5a793c8fa1 100644 (file)
@@ -24,7 +24,7 @@
  *
  * Obviously, taking constants for these values is an oversimplification,
  * but it's tough enough to get any useful estimates even at this level of
- * detail. Note that all of these parameters are user-settable, in case
+ * detail.  Note that all of these parameters are user-settable, in case
  * the default values are drastically off for a particular platform.
  *
  * We compute two separate costs for each path:
@@ -428,7 +428,7 @@ cost_index(IndexPath *path, PlannerInfo *root,
  * computed for us by query_planner.
  *
  * Caller is expected to have ensured that tuples_fetched is greater than zero
- * and rounded to integer (see clamp_row_est). The result will likewise be
+ * and rounded to integer (see clamp_row_est).  The result will likewise be
  * greater than zero and integral.
  */
 double
@@ -617,7 +617,7 @@ cost_bitmap_heap_scan(Path *path, PlannerInfo *root, RelOptInfo *baserel,
    /*
     * For small numbers of pages we should charge random_page_cost apiece,
     * while if nearly all the table's pages are being read, it's more
-    * appropriate to charge seq_page_cost apiece.  The effect is nonlinear,
+    * appropriate to charge seq_page_cost apiece.  The effect is nonlinear,
     * too. For lack of a better idea, interpolate like this to determine the
     * cost per page.
     */
@@ -688,7 +688,7 @@ cost_bitmap_tree_node(Path *path, Cost *cost, Selectivity *selec)
  *     Estimate the cost of a BitmapAnd node
  *
  * Note that this considers only the costs of index scanning and bitmap
- * creation, not the eventual heap access. In that sense the object isn't
+ * creation, not the eventual heap access.  In that sense the object isn't
  * truly a Path, but it has enough path-like properties (costs in particular)
  * to warrant treating it as one.
  */
@@ -745,7 +745,7 @@ cost_bitmap_or_node(BitmapOrPath *path, PlannerInfo *root)
    /*
     * We estimate OR selectivity on the assumption that the inputs are
     * non-overlapping, since that's often the case in "x IN (list)" type
-    * situations.  Of course, we clamp to 1.0 at the end.
+    * situations.  Of course, we clamp to 1.0 at the end.
     *
     * The runtime cost of the BitmapOr itself is estimated at 100x
     * cpu_operator_cost for each tbm_union needed.  Probably too small,
@@ -821,7 +821,7 @@ cost_tidscan(Path *path, PlannerInfo *root,
 
    /*
     * We must force TID scan for WHERE CURRENT OF, because only nodeTidscan.c
-    * understands how to do it correctly.  Therefore, honor enable_tidscan
+    * understands how to do it correctly.  Therefore, honor enable_tidscan
     * only when CURRENT OF isn't present.  Also note that cost_qual_eval
     * counts a CurrentOfExpr as having startup cost disable_cost, which we
     * subtract off here; that's to prevent other plan types such as seqscan
@@ -955,7 +955,7 @@ cost_valuesscan(Path *path, PlannerInfo *root, RelOptInfo *baserel)
  *
  * Note: this is used for both self-reference and regular CTEs; the
  * possible cost differences are below the threshold of what we could
- * estimate accurately anyway. Note that the costs of evaluating the
+ * estimate accurately anyway.  Note that the costs of evaluating the
  * referenced CTE query are added into the final plan as initplan costs,
  * and should NOT be counted here.
  */
@@ -1039,7 +1039,7 @@ cost_recursive_union(Plan *runion, Plan *nrterm, Plan *rterm)
  * If the total volume exceeds work_mem, we switch to a tape-style merge
  * algorithm.  There will still be about t*log2(t) tuple comparisons in
  * total, but we will also need to write and read each tuple once per
- * merge pass. We expect about ceil(logM(r)) merge passes where r is the
+ * merge pass.  We expect about ceil(logM(r)) merge passes where r is the
  * number of initial runs formed and M is the merge order used by tuplesort.c.
  * Since the average initial run should be about twice work_mem, we have
  *     disk traffic = 2 * relsize * ceil(logM(p / (2*work_mem)))
@@ -1215,7 +1215,7 @@ cost_material(Path *path,
    startup_cost += cpu_tuple_cost * 0.1 * tuples;
 
    /*
-    * Also charge a small amount per extracted tuple.  We use cpu_tuple_cost
+    * Also charge a small amount per extracted tuple.  We use cpu_tuple_cost
     * so that it doesn't appear worthwhile to materialize a bare seqscan.
     */
    run_cost += cpu_tuple_cost * tuples;
@@ -1253,7 +1253,7 @@ cost_agg(Path *path, PlannerInfo *root,
     * group otherwise.  We charge cpu_tuple_cost for each output tuple.
     *
     * Note: in this cost model, AGG_SORTED and AGG_HASHED have exactly the
-    * same total CPU cost, but AGG_SORTED has lower startup cost.  If the
+    * same total CPU cost, but AGG_SORTED has lower startup cost.  If the
     * input path is already sorted appropriately, AGG_SORTED should be
     * preferred (since it has no risk of memory overflow).  This will happen
     * as long as the computed total costs are indeed exactly equal --- but if
@@ -1578,7 +1578,7 @@ cost_mergejoin(MergePath *path, PlannerInfo *root, SpecialJoinInfo *sjinfo)
    qp_qual_cost.per_tuple -= merge_qual_cost.per_tuple;
 
    /*
-    * Get approx # tuples passing the mergequals.  We use approx_tuple_count
+    * Get approx # tuples passing the mergequals.  We use approx_tuple_count
     * here because we need an estimate done with JOIN_INNER semantics.
     */
    mergejointuples = approx_tuple_count(root, &path->jpath, mergeclauses);
@@ -1595,7 +1595,7 @@ cost_mergejoin(MergePath *path, PlannerInfo *root, SpecialJoinInfo *sjinfo)
     * estimated approximately as size of merge join output minus size of
     * inner relation. Assume that the distinct key values are 1, 2, ..., and
     * denote the number of values of each key in the outer relation as m1,
-    * m2, ...; in the inner relation, n1, n2, ...  Then we have
+    * m2, ...; in the inner relation, n1, n2, ...  Then we have
     *
     * size of join = m1 * n1 + m2 * n2 + ...
     *
@@ -1606,7 +1606,7 @@ cost_mergejoin(MergePath *path, PlannerInfo *root, SpecialJoinInfo *sjinfo)
     * This equation works correctly for outer tuples having no inner match
     * (nk = 0), but not for inner tuples having no outer match (mk = 0); we
     * are effectively subtracting those from the number of rescanned tuples,
-    * when we should not.  Can we do better without expensive selectivity
+    * when we should not.  Can we do better without expensive selectivity
     * computations?
     *
     * The whole issue is moot if we are working from a unique-ified outer
@@ -1801,7 +1801,7 @@ cost_mergejoin(MergePath *path, PlannerInfo *root, SpecialJoinInfo *sjinfo)
    /*
     * For each tuple that gets through the mergejoin proper, we charge
     * cpu_tuple_cost plus the cost of evaluating additional restriction
-    * clauses that are to be applied at the join.  (This is pessimistic since
+    * clauses that are to be applied at the join.  (This is pessimistic since
     * not all of the quals may get evaluated at each tuple.)
     *
     * Note: we could adjust for SEMI/ANTI joins skipping some qual
@@ -2026,7 +2026,7 @@ cost_hashjoin(HashPath *path, PlannerInfo *root, SpecialJoinInfo *sjinfo)
     * If inner relation is too big then we will need to "batch" the join,
     * which implies writing and reading most of the tuples to disk an extra
     * time.  Charge seq_page_cost per page, since the I/O should be nice and
-    * sequential.  Writing the inner rel counts as startup cost, all the rest
+    * sequential.  Writing the inner rel counts as startup cost, all the rest
     * as run cost.
     */
    if (numbatches > 1)
@@ -2118,7 +2118,7 @@ cost_hashjoin(HashPath *path, PlannerInfo *root, SpecialJoinInfo *sjinfo)
    /*
     * For each tuple that gets through the hashjoin proper, we charge
     * cpu_tuple_cost plus the cost of evaluating additional restriction
-    * clauses that are to be applied at the join.  (This is pessimistic since
+    * clauses that are to be applied at the join.  (This is pessimistic since
     * not all of the quals may get evaluated at each tuple.)
     */
    startup_cost += qp_qual_cost.startup;
@@ -2171,7 +2171,7 @@ cost_subplan(PlannerInfo *root, SubPlan *subplan, Plan *plan)
    {
        /*
         * Otherwise we will be rescanning the subplan output on each
-        * evaluation.  We need to estimate how much of the output we will
+        * evaluation.  We need to estimate how much of the output we will
         * actually need to scan.  NOTE: this logic should agree with the
         * tuple_fraction estimates used by make_subplan() in
         * plan/subselect.c.
@@ -2326,14 +2326,14 @@ cost_qual_eval_walker(Node *node, cost_qual_eval_context *context)
     *
     * Note that Aggref and WindowFunc nodes are (and should be) treated like
     * Vars --- whatever execution cost they have is absorbed into
-    * plan-node-specific costing.  As far as expression evaluation is
+    * plan-node-specific costing.  As far as expression evaluation is
     * concerned they're just like Vars.
     *
     * Should we try to account for the possibility of short-circuit
     * evaluation of AND/OR?  Probably *not*, because that would make the
     * results depend on the clause ordering, and we are not in any position
     * to expect that the current ordering of the clauses is the one that's
-    * going to end up being used.  (Is it worth applying order_qual_clauses
+    * going to end up being used.  (Is it worth applying order_qual_clauses
     * much earlier in the planning process to fix this?)
     */
    if (IsA(node, FuncExpr))
@@ -2434,7 +2434,7 @@ cost_qual_eval_walker(Node *node, cost_qual_eval_context *context)
    else if (IsA(node, AlternativeSubPlan))
    {
        /*
-        * Arbitrarily use the first alternative plan for costing.  (We should
+        * Arbitrarily use the first alternative plan for costing.  (We should
         * certainly only include one alternative, and we don't yet have
         * enough information to know which one the executor is most likely to
         * use.)
@@ -2560,7 +2560,7 @@ adjust_semi_join(PlannerInfo *root, JoinPath *path, SpecialJoinInfo *sjinfo,
    /*
     * jselec can be interpreted as the fraction of outer-rel rows that have
     * any matches (this is true for both SEMI and ANTI cases).  And nselec is
-    * the fraction of the Cartesian product that matches.  So, the average
+    * the fraction of the Cartesian product that matches.  So, the average
     * number of matches for each outer-rel row that has at least one match is
     * nselec * inner_rows / jselec.
     *
@@ -2583,7 +2583,7 @@ adjust_semi_join(PlannerInfo *root, JoinPath *path, SpecialJoinInfo *sjinfo,
 
    /*
     * If requested, check whether the inner path uses all the joinquals as
-    * indexquals.  (If that's true, we can assume that an unmatched outer
+    * indexquals.  (If that's true, we can assume that an unmatched outer
     * tuple is cheap to process, whereas otherwise it's probably expensive.)
     */
    if (indexed_join_quals)
@@ -2740,7 +2740,7 @@ set_joinrel_size_estimates(PlannerInfo *root, RelOptInfo *rel,
    double      nrows;
 
    /*
-    * Compute joinclause selectivity.  Note that we are only considering
+    * Compute joinclause selectivity.  Note that we are only considering
     * clauses that become restriction clauses at this join level; we are not
     * double-counting them because they were not considered in estimating the
     * sizes of the component rels.
@@ -2798,7 +2798,7 @@ set_joinrel_size_estimates(PlannerInfo *root, RelOptInfo *rel,
     *
     * If we are doing an outer join, take that into account: the joinqual
     * selectivity has to be clamped using the knowledge that the output must
-    * be at least as large as the non-nullable input.  However, any
+    * be at least as large as the non-nullable input.  However, any
     * pushed-down quals are applied after the outer join, so their
     * selectivity applies fully.
     *
@@ -2945,7 +2945,7 @@ set_cte_size_estimates(PlannerInfo *root, RelOptInfo *rel, Plan *cteplan)
  * NB: this works best on plain relations because it prefers to look at
  * real Vars.  It will fail to make use of pg_statistic info when applied
  * to a subquery relation, even if the subquery outputs are simple vars
- * that we could have gotten info for. Is it worth trying to be smarter
+ * that we could have gotten info for.  Is it worth trying to be smarter
  * about subqueries?
  *
  * The per-attribute width estimates are cached for possible re-use while
index f40a46b0d7b7fe42e844ea200c7b7a5e54a0294e..88eca2a2d2e9bac76f803cd5419c60b5243101b9 100644 (file)
@@ -71,7 +71,7 @@ static bool reconsider_full_join_clause(PlannerInfo *root,
  *
  * If below_outer_join is true, then the clause was found below the nullable
  * side of an outer join, so its sides might validly be both NULL rather than
- * strictly equal. We can still deduce equalities in such cases, but we take
+ * strictly equal.  We can still deduce equalities in such cases, but we take
  * care to mark an EquivalenceClass if it came from any such clauses.  Also,
  * we have to check that both sides are either pseudo-constants or strict
  * functions of Vars, else they might not both go to NULL above the outer
@@ -164,14 +164,14 @@ process_equivalence(PlannerInfo *root, RestrictInfo *restrictinfo,
     * Sweep through the existing EquivalenceClasses looking for matches to
     * item1 and item2.  These are the possible outcomes:
     *
-    * 1. We find both in the same EC.  The equivalence is already known, so
+    * 1. We find both in the same EC.  The equivalence is already known, so
     * there's nothing to do.
     *
     * 2. We find both in different ECs.  Merge the two ECs together.
     *
     * 3. We find just one.  Add the other to its EC.
     *
-    * 4. We find neither.  Make a new, two-entry EC.
+    * 4. We find neither.  Make a new, two-entry EC.
     *
     * Note: since all ECs are built through this process or the similar
     * search in get_eclass_for_sort_expr(), it's impossible that we'd match
@@ -500,7 +500,7 @@ get_eclass_for_sort_expr(PlannerInfo *root,
  *
  * When an EC contains pseudoconstants, our strategy is to generate
  * "member = const1" clauses where const1 is the first constant member, for
- * every other member (including other constants). If we are able to do this
+ * every other member (including other constants).  If we are able to do this
  * then we don't need any "var = var" comparisons because we've successfully
  * constrained all the vars at their points of creation.  If we fail to
  * generate any of these clauses due to lack of cross-type operators, we fall
@@ -525,7 +525,7 @@ get_eclass_for_sort_expr(PlannerInfo *root,
  * "WHERE a.x = b.y AND b.y = a.z", the scheme breaks down if we cannot
  * generate "a.x = a.z" as a restriction clause for A.)  In this case we mark
  * the EC "ec_broken" and fall back to regurgitating its original source
- * RestrictInfos at appropriate times. We do not try to retract any derived
+ * RestrictInfos at appropriate times.  We do not try to retract any derived
  * clauses already generated from the broken EC, so the resulting plan could
  * be poor due to bad selectivity estimates caused by redundant clauses.  But
  * the correct solution to that is to fix the opfamilies ...
@@ -784,7 +784,7 @@ generate_base_implied_equalities_broken(PlannerInfo *root,
  * we consider different join paths, we avoid generating multiple copies:
  * whenever we select a particular pair of EquivalenceMembers to join,
  * we check to see if the pair matches any original clause (in ec_sources)
- * or previously-built clause (in ec_derives). This saves memory and allows
+ * or previously-built clause (in ec_derives).  This saves memory and allows
  * re-use of information cached in RestrictInfos.
  */
 List *
@@ -854,7 +854,7 @@ generate_join_implied_equalities_normal(PlannerInfo *root,
     * First, scan the EC to identify member values that are computable at the
     * outer rel, at the inner rel, or at this relation but not in either
     * input rel.  The outer-rel members should already be enforced equal,
-    * likewise for the inner-rel members.  We'll need to create clauses to
+    * likewise for the inner-rel members.  We'll need to create clauses to
     * enforce that any newly computable members are all equal to each other
     * as well as to at least one input member, plus enforce at least one
     * outer-rel member equal to at least one inner-rel member.
@@ -877,12 +877,12 @@ generate_join_implied_equalities_normal(PlannerInfo *root,
    }
 
    /*
-    * First, select the joinclause if needed.  We can equate any one outer
+    * First, select the joinclause if needed.  We can equate any one outer
     * member to any one inner member, but we have to find a datatype
     * combination for which an opfamily member operator exists.  If we have
     * choices, we prefer simple Var members (possibly with RelabelType) since
     * these are (a) cheapest to compute at runtime and (b) most likely to
-    * have useful statistics.  Also, if enable_hashjoin is on, we prefer
+    * have useful statistics.  Also, if enable_hashjoin is on, we prefer
     * operators that are also hashjoinable.
     */
    if (outer_members && inner_members)
@@ -1078,8 +1078,8 @@ create_join_clause(PlannerInfo *root,
 
    /*
     * Search to see if we already built a RestrictInfo for this pair of
-    * EquivalenceMembers.  We can use either original source clauses or
-    * previously-derived clauses.  The check on opno is probably redundant,
+    * EquivalenceMembers.  We can use either original source clauses or
+    * previously-derived clauses.  The check on opno is probably redundant,
     * but be safe ...
     */
    foreach(lc, ec->ec_sources)
@@ -1209,7 +1209,7 @@ create_join_clause(PlannerInfo *root,
  *
  * Outer join clauses that are marked outerjoin_delayed are special: this
  * condition means that one or both VARs might go to null due to a lower
- * outer join. We can still push a constant through the clause, but only
+ * outer join.  We can still push a constant through the clause, but only
  * if its operator is strict; and we *have to* throw the clause back into
  * regular joinclause processing.  By keeping the strict join clause,
  * we ensure that any null-extended rows that are mistakenly generated due
@@ -1398,7 +1398,7 @@ reconsider_outer_join_clause(PlannerInfo *root, RestrictInfo *rinfo,
 
        /*
         * Yes it does!  Try to generate a clause INNERVAR = CONSTANT for each
-        * CONSTANT in the EC.  Note that we must succeed with at least one
+        * CONSTANT in the EC.  Note that we must succeed with at least one
         * constant before we can decide to throw away the outer-join clause.
         */
        match = false;
@@ -1858,7 +1858,7 @@ find_eclass_clauses_for_index_join(PlannerInfo *root, RelOptInfo *rel,
  *     a joinclause between the two given relations.
  *
  * This is essentially a very cut-down version of
- * generate_join_implied_equalities(). Note it's OK to occasionally say "yes"
+ * generate_join_implied_equalities().  Note it's OK to occasionally say "yes"
  * incorrectly.  Hence we don't bother with details like whether the lack of a
  * cross-type operator might prevent the clause from actually being generated.
  */
@@ -1888,7 +1888,7 @@ have_relevant_eclass_joinclause(PlannerInfo *root,
         * as a possibly-overoptimistic heuristic.
         *
         * We don't test ec_has_const either, even though a const eclass won't
-        * generate real join clauses.  This is because if we had "WHERE a.x =
+        * generate real join clauses.  This is because if we had "WHERE a.x =
         * b.y and a.x = 42", it is worth considering a join between a and b,
         * since the join result is likely to be small even though it'll end
         * up being an unqualified nestloop.
@@ -1962,7 +1962,7 @@ has_relevant_eclass_joinclause(PlannerInfo *root, RelOptInfo *rel1)
         * as a possibly-overoptimistic heuristic.
         *
         * We don't test ec_has_const either, even though a const eclass won't
-        * generate real join clauses.  This is because if we had "WHERE a.x =
+        * generate real join clauses.  This is because if we had "WHERE a.x =
         * b.y and a.x = 42", it is worth considering a join between a and b,
         * since the join result is likely to be small even though it'll end
         * up being an unqualified nestloop.
@@ -2009,7 +2009,7 @@ has_relevant_eclass_joinclause(PlannerInfo *root, RelOptInfo *rel1)
  *   against the specified relation.
  *
  * This is just a heuristic test and doesn't have to be exact; it's better
- * to say "yes" incorrectly than "no". Hence we don't bother with details
+ * to say "yes" incorrectly than "no".  Hence we don't bother with details
  * like whether the lack of a cross-type operator might prevent the clause
  * from actually being generated.
  */
@@ -2030,7 +2030,7 @@ eclass_useful_for_merging(EquivalenceClass *eclass,
 
    /*
     * Note we don't test ec_broken; if we did, we'd need a separate code path
-    * to look through ec_sources.  Checking the members anyway is OK as a
+    * to look through ec_sources.  Checking the members anyway is OK as a
     * possibly-overoptimistic heuristic.
     */
 
index b0660ad97765df96859b14ff7cd4c68e6a249ab3..5a5253f4ec8b5ef5d221721d8914de0538a38e44 100644 (file)
@@ -139,7 +139,7 @@ static Const *string_to_const(const char *str, Oid datatype);
  * scan this routine deems potentially interesting for the current query.
  *
  * We also determine the set of other relids that participate in join
- * clauses that could be used with each index. The actually best innerjoin
+ * clauses that could be used with each index.  The actually best innerjoin
  * path will be generated for each outer relation later on, but knowing the
  * set of potential otherrels allows us to identify equivalent outer relations
  * and avoid repeated computation.
@@ -315,16 +315,16 @@ find_usable_indexes(PlannerInfo *root, RelOptInfo *rel,
        }
 
        /*
-        * Ignore partial indexes that do not match the query.  If a partial
+        * Ignore partial indexes that do not match the query.  If a partial
         * index is marked predOK then we know it's OK; otherwise, if we are
         * at top level we know it's not OK (since predOK is exactly whether
         * its predicate could be proven from the toplevel clauses).
         * Otherwise, we have to test whether the added clauses are sufficient
-        * to imply the predicate.  If so, we could use the index in the
+        * to imply the predicate.  If so, we could use the index in the
         * current context.
         *
         * We set useful_predicate to true iff the predicate was proven using
-        * the current set of clauses.  This is needed to prevent matching a
+        * the current set of clauses.  This is needed to prevent matching a
         * predOK index to an arm of an OR, which would be a legal but
         * pointlessly inefficient plan.  (A better plan will be generated by
         * just scanning the predOK index alone, no OR.)
@@ -600,7 +600,7 @@ generate_bitmap_or_paths(PlannerInfo *root, RelOptInfo *rel,
  *     Given a nonempty list of bitmap paths, AND them into one path.
  *
  * This is a nontrivial decision since we can legally use any subset of the
- * given path set. We want to choose a good tradeoff between selectivity
+ * given path set.  We want to choose a good tradeoff between selectivity
  * and cost of computing the bitmap.
  *
  * The result is either a single one of the inputs, or a BitmapAndPath
@@ -628,12 +628,12 @@ choose_bitmap_and(PlannerInfo *root, RelOptInfo *rel,
     * In theory we should consider every nonempty subset of the given paths.
     * In practice that seems like overkill, given the crude nature of the
     * estimates, not to mention the possible effects of higher-level AND and
-    * OR clauses.  Moreover, it's completely impractical if there are a large
+    * OR clauses.  Moreover, it's completely impractical if there are a large
     * number of paths, since the work would grow as O(2^N).
     *
     * As a heuristic, we first check for paths using exactly the same sets of
     * WHERE clauses + index predicate conditions, and reject all but the
-    * cheapest-to-scan in any such group.  This primarily gets rid of indexes
+    * cheapest-to-scan in any such group.  This primarily gets rid of indexes
     * that include the interesting columns but also irrelevant columns.  (In
     * situations where the DBA has gone overboard on creating variant
     * indexes, this can make for a very large reduction in the number of
@@ -653,14 +653,14 @@ choose_bitmap_and(PlannerInfo *root, RelOptInfo *rel,
     * costsize.c and clausesel.c aren't very smart about redundant clauses.
     * They will usually double-count the redundant clauses, producing a
     * too-small selectivity that makes a redundant AND step look like it
-    * reduces the total cost.  Perhaps someday that code will be smarter and
+    * reduces the total cost.  Perhaps someday that code will be smarter and
     * we can remove this limitation.  (But note that this also defends
     * against flat-out duplicate input paths, which can happen because
     * best_inner_indexscan will find the same OR join clauses that
     * create_or_index_quals has pulled OR restriction clauses out of.)
     *
     * For the same reason, we reject AND combinations in which an index
-    * predicate clause duplicates another clause.  Here we find it necessary
+    * predicate clause duplicates another clause.  Here we find it necessary
     * to be even stricter: we'll reject a partial index if any of its
     * predicate clauses are implied by the set of WHERE clauses and predicate
     * clauses used so far.  This covers cases such as a condition "x = 42"
@@ -723,7 +723,7 @@ choose_bitmap_and(PlannerInfo *root, RelOptInfo *rel,
    /*
     * For each surviving index, consider it as an "AND group leader", and see
     * whether adding on any of the later indexes results in an AND path with
-    * cheaper total cost than before.  Then take the cheapest AND group.
+    * cheaper total cost than before.  Then take the cheapest AND group.
     */
    for (i = 0; i < npaths; i++)
    {
@@ -979,7 +979,7 @@ find_indexpath_quals(Path *bitmapqual, List **quals, List **preds)
 /*
  * find_list_position
  *     Return the given node's position (counting from 0) in the given
- *     list of nodes.  If it's not equal() to any existing list member,
+ *     list of nodes.  If it's not equal() to any existing list member,
  *     add it at the end, and return that position.
  */
 static int
@@ -1020,7 +1020,7 @@ find_list_position(Node *node, List **nodelist)
  *
  * We can use clauses from either the current clauses or outer_clauses lists,
  * but *found_clause is set TRUE only if we used at least one clause from
- * the "current clauses" list. See find_usable_indexes() for motivation.
+ * the "current clauses" list.  See find_usable_indexes() for motivation.
  *
  * outer_relids determines what Vars will be allowed on the other side
  * of a possible index qual; see match_clause_to_indexcol().
@@ -1139,7 +1139,7 @@ group_clauses_by_indexkey(IndexOptInfo *index,
  *   to the caller-specified outer_relids relations (which had better not
  *   include the relation whose index is being tested).  outer_relids should
  *   be NULL when checking simple restriction clauses, and the outer side
- *   of the join when building a join inner scan.  Other than that, the
+ *   of the join when building a join inner scan.  Other than that, the
  *   only thing we don't like is volatile functions.
  *
  *   Note: in most cases we already know that the clause as a whole uses
@@ -1157,7 +1157,7 @@ group_clauses_by_indexkey(IndexOptInfo *index,
  *   It is also possible to match RowCompareExpr clauses to indexes (but
  *   currently, only btree indexes handle this).  In this routine we will
  *   report a match if the first column of the row comparison matches the
- *   target index column.  This is sufficient to guarantee that some index
+ *   target index column.  This is sufficient to guarantee that some index
  *   condition can be constructed from the RowCompareExpr --- whether the
  *   remaining columns match the index too is considered in
  *   expand_indexqual_rowcompare().
@@ -1198,7 +1198,7 @@ match_clause_to_indexcol(IndexOptInfo *index,
    bool        plain_op;
 
    /*
-    * Never match pseudoconstants to indexes.  (Normally this could not
+    * Never match pseudoconstants to indexes.  (Normally this could not
     * happen anyway, since a pseudoconstant clause couldn't contain a Var,
     * but what if someone builds an expression index on a constant? It's not
     * totally unreasonable to do so with a partial index, either.)
@@ -1437,7 +1437,7 @@ check_partial_indexes(PlannerInfo *root, RelOptInfo *rel)
 /*
  * indexable_outerrelids
  *   Finds all other relids that participate in any indexable join clause
- *   for the specified table.  Returns a set of relids.
+ *   for the specified table.  Returns a set of relids.
  */
 static Relids
 indexable_outerrelids(PlannerInfo *root, RelOptInfo *rel)
@@ -1631,7 +1631,7 @@ eclass_matches_any_index(EquivalenceClass *ec, EquivalenceMember *em,
             * compatible with the EC, since no clause generated from the EC
             * could be used with the index.  For non-btree indexes, we can't
             * easily tell whether clauses generated from the EC could be used
-            * with the index, so only check for expression match.  This might
+            * with the index, so only check for expression match.  This might
             * mean we return "true" for a useless index, but that will just
             * cause some wasted planner cycles; it's better than ignoring
             * useful indexes.
@@ -1731,7 +1731,7 @@ best_inner_indexscan(PlannerInfo *root, RelOptInfo *rel,
    /*
     * Look to see if we already computed the result for this set of relevant
     * outerrels.  (We include the isouterjoin status in the cache lookup key
-    * for safety.  In practice I suspect this is not necessary because it
+    * for safety.  In practice I suspect this is not necessary because it
     * should always be the same for a given combination of rels.)
     *
     * NOTE: because we cache on outer_relids rather than outer_rel->relids,
@@ -1760,7 +1760,7 @@ best_inner_indexscan(PlannerInfo *root, RelOptInfo *rel,
     *
     * Note: because we include restriction clauses, we will find indexscans
     * that could be plain indexscans, ie, they don't require the join context
-    * at all.  This may seem redundant, but we need to include those scans in
+    * at all.  This may seem redundant, but we need to include those scans in
     * the input given to choose_bitmap_and() to be sure we find optimal AND
     * combinations of join and non-join scans.  Also, even if the "best inner
     * indexscan" is just a plain indexscan, it will have a different cost
@@ -1898,7 +1898,7 @@ find_clauses_for_join(PlannerInfo *root, RelOptInfo *rel,
 
    /*
     * Also check to see if any EquivalenceClasses can produce a relevant
-    * joinclause.  Since all such clauses are effectively pushed-down, this
+    * joinclause.  Since all such clauses are effectively pushed-down, this
     * doesn't apply to outer joins.
     */
    if (!isouterjoin && rel->has_eclass_joins)
@@ -1964,7 +1964,7 @@ match_index_to_operand(Node *operand,
    int         indkey;
 
    /*
-    * Ignore any RelabelType node above the operand.   This is needed to be
+    * Ignore any RelabelType node above the operand.   This is needed to be
     * able to apply indexscanning in binary-compatible-operator cases. Note:
     * we can assume there is at most one RelabelType node;
     * eval_const_expressions() will have simplified if more than one.
@@ -2031,10 +2031,10 @@ match_index_to_operand(Node *operand,
  * indexscan machinery.  The key idea is that these operators allow us
  * to derive approximate indexscan qual clauses, such that any tuples
  * that pass the operator clause itself must also satisfy the simpler
- * indexscan condition(s). Then we can use the indexscan machinery
+ * indexscan condition(s).  Then we can use the indexscan machinery
  * to avoid scanning as much of the table as we'd otherwise have to,
  * while applying the original operator as a qpqual condition to ensure
- * we deliver only the tuples we want. (In essence, we're using a regular
+ * we deliver only the tuples we want.  (In essence, we're using a regular
  * index as if it were a lossy index.)
  *
  * An example of what we're doing is
@@ -2048,7 +2048,7 @@ match_index_to_operand(Node *operand,
  *
  * Another thing that we do with this machinery is to provide special
  * smarts for "boolean" indexes (that is, indexes on boolean columns
- * that support boolean equality). We can transform a plain reference
+ * that support boolean equality).  We can transform a plain reference
  * to the indexkey into "indexkey = true", or "NOT indexkey" into
  * "indexkey = false", so as to make the expression indexable using the
  * regular index operators.  (As of Postgres 8.1, we must do this here
@@ -2458,7 +2458,7 @@ expand_indexqual_opclause(RestrictInfo *rinfo, Oid opfamily)
    /*
     * LIKE and regex operators are not members of any btree index opfamily,
     * but they can be members of opfamilies for more exotic index types such
-    * as GIN.  Therefore, we should only do expansion if the operator is
+    * as GIN.  Therefore, we should only do expansion if the operator is
     * actually not in the opfamily.  But checking that requires a syscache
     * lookup, so it's best to first see if the operator is one we are
     * interested in.
@@ -2541,7 +2541,7 @@ expand_indexqual_opclause(RestrictInfo *rinfo, Oid opfamily)
  * column matches) or a simple OpExpr (if the first-column match is all
  * there is).  In these cases the modified clause is always "<=" or ">="
  * even when the original was "<" or ">" --- this is necessary to match all
- * the rows that could match the original. (We are essentially building a
+ * the rows that could match the original.  (We are essentially building a
  * lossy version of the row comparison when we do this.)
  */
 static RestrictInfo *
@@ -2622,7 +2622,7 @@ expand_indexqual_rowcompare(RestrictInfo *rinfo,
            break;              /* no good, volatile comparison value */
 
        /*
-        * The Var side can match any column of the index.  If the user does
+        * The Var side can match any column of the index.  If the user does
         * something weird like having multiple identical index columns, we
         * insist the match be on the first such column, to avoid confusing
         * the executor.
index dec484d4af4d999e9697e90be8b34b615e01ca2f..4b0804cd5e63da1b46a10fd5c71cff245f2f0645 100644 (file)
@@ -110,7 +110,7 @@ add_paths_to_joinrel(PlannerInfo *root,
 
    /*
     * 3. Consider paths where the inner relation need not be explicitly
-    * sorted.  This includes mergejoins only (nestloops were already built in
+    * sorted.  This includes mergejoins only (nestloops were already built in
     * match_unsorted_outer).
     *
     * Diked out as redundant 2/13/2000 -- tgl.  There isn't any really
@@ -223,7 +223,7 @@ sort_inner_and_outer(PlannerInfo *root,
     *
     * Actually, it's not quite true that every mergeclause ordering will
     * generate a different path order, because some of the clauses may be
-    * partially redundant (refer to the same EquivalenceClasses).  Therefore,
+    * partially redundant (refer to the same EquivalenceClasses).  Therefore,
     * what we do is convert the mergeclause list to a list of canonical
     * pathkeys, and then consider different orderings of the pathkeys.
     *
@@ -316,7 +316,7 @@ sort_inner_and_outer(PlannerInfo *root,
  * cheapest-total inner-indexscan path (if any), and one on the
  * cheapest-startup inner-indexscan path (if different).
  *
- * We also consider mergejoins if mergejoin clauses are available. We have
+ * We also consider mergejoins if mergejoin clauses are available.  We have
  * two ways to generate the inner path for a mergejoin: sort the cheapest
  * inner path, or use an inner path that is already suitably ordered for the
  * merge.  If we have several mergeclauses, it could be that there is no inner
@@ -639,7 +639,7 @@ match_unsorted_outer(PlannerInfo *root,
 
            /*
             * Look for an inner path ordered well enough for the first
-            * 'sortkeycnt' innersortkeys.  NB: trialsortkeys list is modified
+            * 'sortkeycnt' innersortkeys.  NB: trialsortkeys list is modified
             * destructively, which is why we made a copy...
             */
            trialsortkeys = list_truncate(trialsortkeys, sortkeycnt);
@@ -877,7 +877,7 @@ hash_inner_and_outer(PlannerInfo *root,
  * best_appendrel_indexscan
  *   Finds the best available set of inner indexscans for a nestloop join
  *   with the given append relation on the inside and the given outer_rel
- *   outside.  Returns an AppendPath comprising the best inner scans, or
+ *   outside.  Returns an AppendPath comprising the best inner scans, or
  *   NULL if there are no possible inner indexscans.
  *
  * Note that we currently consider only cheapest-total-cost.  It's not
index 1fbd9ee23977bcb48ed18d6dac6963a28a78bb3c..0f522dca3274e841a5109f10d4d2d9c3b1ed4177 100644 (file)
@@ -191,7 +191,7 @@ join_search_one_level(PlannerInfo *root, int level, List **joinrels)
     * SELECT * FROM a,b,c WHERE (a.f1 + b.f2 + c.f3) = 0;
     *
     * The join clause will be usable at level 3, but at level 2 we have no
-    * choice but to make cartesian joins.  We consider only left-sided and
+    * choice but to make cartesian joins.  We consider only left-sided and
     * right-sided cartesian joins in this case (no bushy).
     */
    if (result_rels == NIL)
@@ -221,7 +221,7 @@ join_search_one_level(PlannerInfo *root, int level, List **joinrels)
 
        /*----------
         * When special joins are involved, there may be no legal way
-        * to make an N-way join for some values of N.  For example consider
+        * to make an N-way join for some values of N.  For example consider
         *
         * SELECT ... FROM t1 WHERE
         *   x IN (SELECT ... FROM t2,t3 WHERE ...) AND
@@ -355,7 +355,7 @@ join_is_legal(PlannerInfo *root, RelOptInfo *rel1, RelOptInfo *rel2,
    ListCell   *l;
 
    /*
-    * Ensure output params are set on failure return.  This is just to
+    * Ensure output params are set on failure return.  This is just to
     * suppress uninitialized-variable warnings from overly anal compilers.
     */
    *sjinfo_p = NULL;
@@ -363,7 +363,7 @@ join_is_legal(PlannerInfo *root, RelOptInfo *rel1, RelOptInfo *rel2,
 
    /*
     * If we have any special joins, the proposed join might be illegal; and
-    * in any case we have to determine its join type.  Scan the join info
+    * in any case we have to determine its join type.  Scan the join info
     * list for conflicts.
     */
    match_sjinfo = NULL;
@@ -586,7 +586,7 @@ make_join_rel(PlannerInfo *root, RelOptInfo *rel1, RelOptInfo *rel2)
 
    /*
     * If it's a plain inner join, then we won't have found anything in
-    * join_info_list.  Make up a SpecialJoinInfo so that selectivity
+    * join_info_list.  Make up a SpecialJoinInfo so that selectivity
     * estimation functions will know what's being joined.
     */
    if (sjinfo == NULL)
@@ -850,7 +850,7 @@ have_join_order_restriction(PlannerInfo *root,
  *
  * Essentially, this tests whether have_join_order_restriction() could
  * succeed with this rel and some other one.  It's OK if we sometimes
- * say "true" incorrectly. (Therefore, we don't bother with the relatively
+ * say "true" incorrectly.  (Therefore, we don't bother with the relatively
  * expensive has_legal_joinclause test.)
  */
 static bool
index 6a644f9a0fa53c4d97880bf390d260e298640468..739d6c0a8d53754c1572bab8a976748a3fd4a619 100644 (file)
@@ -41,7 +41,7 @@
  *
  * The added quals are partially redundant with the original OR, and therefore
  * will cause the size of the joinrel to be underestimated when it is finally
- * formed. (This would be true of a full transformation to CNF as well; the
+ * formed.  (This would be true of a full transformation to CNF as well; the
  * fault is not really in the transformation, but in clauselist_selectivity's
  * inability to recognize redundant conditions.)  To minimize the collateral
  * damage, we want to minimize the number of quals added.  Therefore we do
@@ -56,7 +56,7 @@
  * it is finally formed.  This is a MAJOR HACK: it depends on the fact
  * that clause selectivities are cached and on the fact that the same
  * RestrictInfo node will appear in every joininfo list that might be used
- * when the joinrel is formed. And it probably isn't right in cases where
+ * when the joinrel is formed.  And it probably isn't right in cases where
  * the size estimation is nonlinear (i.e., outer and IN joins).  But it
  * beats not doing anything.
  *
@@ -96,10 +96,10 @@ create_or_index_quals(PlannerInfo *root, RelOptInfo *rel)
     * enforced at the relation scan level.
     *
     * We must also ignore clauses that are marked !is_pushed_down (ie they
-    * are themselves outer-join clauses).  It would be safe to extract an
+    * are themselves outer-join clauses).  It would be safe to extract an
     * index condition from such a clause if we are within the nullable rather
     * than the non-nullable side of its join, but we haven't got enough
-    * context here to tell which applies.  OR clauses in outer-join quals
+    * context here to tell which applies.  OR clauses in outer-join quals
     * aren't exactly common, so we'll let that case go unoptimized for now.
     */
    foreach(i, rel->joininfo)
@@ -114,7 +114,7 @@ create_or_index_quals(PlannerInfo *root, RelOptInfo *rel)
             * Use the generate_bitmap_or_paths() machinery to estimate the
             * value of each OR clause.  We can use regular restriction
             * clauses along with the OR clause contents to generate
-            * indexquals.  We pass outer_rel = NULL so that sub-clauses that
+            * indexquals.  We pass outer_rel = NULL so that sub-clauses that
             * are actually joins will be ignored.
             */
            List       *orpaths;
index 215cb7c9240488da09ba14087cc76ae6fef4765e..510805bda6dbd309530faf10599ba82078c18eee 100644 (file)
@@ -253,7 +253,7 @@ make_pathkey_from_sortinfo(PlannerInfo *root,
     * builds a reverse-sort opfamily, but there's not much point in that
     * anymore.  But EquivalenceClasses need to contain opfamily lists based
     * on the family membership of equality operators, which could easily be
-    * bigger.  So, look up the equality operator that goes with the ordering
+    * bigger.  So, look up the equality operator that goes with the ordering
     * operator (this should be unique) and get its membership.
     */
 
@@ -410,7 +410,7 @@ get_cheapest_path_for_pathkeys(List *paths, List *pathkeys,
 
        /*
         * Since cost comparison is a lot cheaper than pathkey comparison, do
-        * that first.  (XXX is that still true?)
+        * that first.  (XXX is that still true?)
         */
        if (matched_path != NULL &&
            compare_path_costs(matched_path, path, cost_criterion) <= 0)
@@ -473,7 +473,7 @@ get_cheapest_fractional_path_for_pathkeys(List *paths,
  *   its sortops arrays, and we will return NIL.)
  *
  * If 'scandir' is BackwardScanDirection, attempt to build pathkeys
- * representing a backwards scan of the index. Return NIL if can't do it.
+ * representing a backwards scan of the index.  Return NIL if can't do it.
  *
  * The result is canonical, meaning that redundant pathkeys are removed;
  * it may therefore have fewer entries than there are index columns.
@@ -580,7 +580,7 @@ find_indexkey_var(PlannerInfo *root, RelOptInfo *rel, AttrNumber varattno)
 /*
  * convert_subquery_pathkeys
  *   Build a pathkeys list that describes the ordering of a subquery's
- *   result, in the terms of the outer query.  This is essentially a
+ *   result, in the terms of the outer query.  This is essentially a
  *   task of conversion.
  *
  * 'rel': outer query's RelOptInfo for the subquery relation.
@@ -663,7 +663,7 @@ convert_subquery_pathkeys(PlannerInfo *root, RelOptInfo *rel,
            /*
             * Otherwise, the sub_pathkey's EquivalenceClass could contain
             * multiple elements (representing knowledge that multiple items
-            * are effectively equal).  Each element might match none, one, or
+            * are effectively equal).  Each element might match none, one, or
             * more of the output columns that are visible to the outer query.
             * This means we may have multiple possible representations of the
             * sub_pathkey in the context of the outer query.  Ideally we
@@ -1031,7 +1031,7 @@ find_mergeclauses_for_pathkeys(PlannerInfo *root,
 
        /*
         * If we didn't find a mergeclause, we're done --- any additional
-        * sort-key positions in the pathkeys are useless.  (But we can still
+        * sort-key positions in the pathkeys are useless.  (But we can still
         * mergejoin if we found at least one mergeclause.)
         */
        if (matched_restrictinfos == NIL)
@@ -1063,7 +1063,7 @@ find_mergeclauses_for_pathkeys(PlannerInfo *root,
  * Returns a pathkeys list that can be applied to the outer relation.
  *
  * Since we assume here that a sort is required, there is no particular use
- * in matching any available ordering of the outerrel. (joinpath.c has an
+ * in matching any available ordering of the outerrel.  (joinpath.c has an
  * entirely separate code path for considering sort-free mergejoins.)  Rather,
  * it's interesting to try to match the requested query_pathkeys so that a
  * second output sort may be avoided; and failing that, we try to list "more
@@ -1394,7 +1394,7 @@ pathkeys_useful_for_merging(PlannerInfo *root, RelOptInfo *rel, List *pathkeys)
 
        /*
         * If we didn't find a mergeclause, we're done --- any additional
-        * sort-key positions in the pathkeys are useless.  (But we can still
+        * sort-key positions in the pathkeys are useless.  (But we can still
         * mergejoin if we found at least one mergeclause.)
         */
        if (matched)
@@ -1424,7 +1424,7 @@ right_merge_direction(PlannerInfo *root, PathKey *pathkey)
            pathkey->pk_opfamily == query_pathkey->pk_opfamily)
        {
            /*
-            * Found a matching query sort column.  Prefer this pathkey's
+            * Found a matching query sort column.  Prefer this pathkey's
             * direction iff it matches.  Note that we ignore pk_nulls_first,
             * which means that a sort might be needed anyway ... but we still
             * want to prefer only one of the two possible directions, and we
@@ -1500,13 +1500,13 @@ truncate_useless_pathkeys(PlannerInfo *root,
  *     useful according to truncate_useless_pathkeys().
  *
  * This is a cheap test that lets us skip building pathkeys at all in very
- * simple queries. It's OK to err in the direction of returning "true" when
+ * simple queries.  It's OK to err in the direction of returning "true" when
  * there really aren't any usable pathkeys, but erring in the other direction
  * is bad --- so keep this in sync with the routines above!
  *
  * We could make the test more complex, for example checking to see if any of
  * the joinclauses are really mergejoinable, but that likely wouldn't win
- * often enough to repay the extra cycles. Queries with neither a join nor
+ * often enough to repay the extra cycles.  Queries with neither a join nor
  * a sort are reasonably common, though, so this much work seems worthwhile.
  */
 bool
index 0796ace43acafdc05b724e68fe1a3ce4acd409c7..b5f119618ff3f483944709a1a032369de8ffe3fe 100644 (file)
@@ -19,7 +19,7 @@
  * representation all the way through to execution.
  *
  * There is currently no special support for joins involving CTID; in
- * particular nothing corresponding to best_inner_indexscan(). Since it's
+ * particular nothing corresponding to best_inner_indexscan().  Since it's
  * not very useful to store TIDs of one table in another table, there
  * doesn't seem to be enough use-case to justify adding a lot of code
  * for that.
@@ -57,7 +57,7 @@ static List *TidQualFromRestrictinfo(List *restrictinfo, int varno);
  * or
  *     pseudoconstant = CTID
  *
- * We check that the CTID Var belongs to relation "varno". That is probably
+ * We check that the CTID Var belongs to relation "varno".  That is probably
  * redundant considering this is only applied to restriction clauses, but
  * let's be safe.
  */
index ab07acae8f527e4956db18d7c366b1acd0253c6a..1247a17216ac5d5e708a4283cedbd8137209a569 100644 (file)
@@ -211,7 +211,7 @@ create_scan_plan(PlannerInfo *root, Path *best_path)
    /*
     * For table scans, rather than using the relation targetlist (which is
     * only those Vars actually needed by the query), we prefer to generate a
-    * tlist containing all Vars in order.  This will allow the executor to
+    * tlist containing all Vars in order.  This will allow the executor to
     * optimize away projection of the table tuples, if possible.  (Note that
     * planner.c may replace the tlist we generate here, forcing projection to
     * occur.)
@@ -402,7 +402,7 @@ use_physical_tlist(PlannerInfo *root, RelOptInfo *rel)
  *
  * If the plan node immediately above a scan would prefer to get only
  * needed Vars and not a physical tlist, it must call this routine to
- * undo the decision made by use_physical_tlist(). Currently, Hash, Sort,
+ * undo the decision made by use_physical_tlist().  Currently, Hash, Sort,
  * and Material nodes want this, so they don't have to store useless columns.
  */
 static void
@@ -520,7 +520,7 @@ create_join_plan(PlannerInfo *root, JoinPath *best_path)
 
    /*
     * * Expensive function pullups may have pulled local predicates * into
-    * this path node.  Put them in the qpqual of the plan node. * JMH,
+    * this path node.  Put them in the qpqual of the plan node. * JMH,
     * 6/15/92
     */
    if (get_loc_restrictinfo(best_path) != NIL)
@@ -549,7 +549,7 @@ create_append_plan(PlannerInfo *root, AppendPath *best_path)
 
    /*
     * It is possible for the subplans list to contain only one entry, or even
-    * no entries.  Handle these cases specially.
+    * no entries.  Handle these cases specially.
     *
     * XXX ideally, if there's just one entry, we'd not bother to generate an
     * Append node but just return the single child.  At the moment this does
@@ -1078,7 +1078,7 @@ create_bitmap_scan_plan(PlannerInfo *root,
 
    /*
     * When dealing with special operators, we will at this point have
-    * duplicate clauses in qpqual and bitmapqualorig.  We may as well drop
+    * duplicate clauses in qpqual and bitmapqualorig.  We may as well drop
     * 'em from bitmapqualorig, since there's no point in making the tests
     * twice.
     */
@@ -1168,7 +1168,7 @@ create_bitmap_subplan(PlannerInfo *root, Path *bitmapqual,
        /*
         * Here, we only detect qual-free subplans.  A qual-free subplan would
         * cause us to generate "... OR true ..."  which we may as well reduce
-        * to just "true".  We do not try to eliminate redundant subclauses
+        * to just "true".  We do not try to eliminate redundant subclauses
         * because (a) it's not as likely as in the AND case, and (b) we might
         * well be working with hundreds or even thousands of OR conditions,
         * perhaps from a long IN list.  The performance of list_append_unique
@@ -1258,7 +1258,7 @@ create_bitmap_subplan(PlannerInfo *root, Path *bitmapqual,
            /*
             * We know that the index predicate must have been implied by the
             * query condition as a whole, but it may or may not be implied by
-            * the conditions that got pushed into the bitmapqual.  Avoid
+            * the conditions that got pushed into the bitmapqual.  Avoid
             * generating redundant conditions.
             */
            if (!predicate_implied_by(list_make1(pred), ipath->indexclauses))
@@ -2321,7 +2321,7 @@ order_qual_clauses(PlannerInfo *root, List *clauses)
 
    /*
     * Sort.  We don't use qsort() because it's not guaranteed stable for
-    * equal keys.  The expected number of entries is small enough that a
+    * equal keys.  The expected number of entries is small enough that a
     * simple insertion sort should be good enough.
     */
    for (i = 1; i < nitems; i++)
@@ -2867,7 +2867,7 @@ make_mergejoin(List *tlist,
  * make_sort --- basic routine to build a Sort plan node
  *
  * Caller must have built the sortColIdx, sortOperators, and nullsFirst
- * arrays already. limit_tuples is as for cost_sort (in particular, pass
+ * arrays already.  limit_tuples is as for cost_sort (in particular, pass
  * -1 if no limit)
  */
 static Sort *
@@ -2906,7 +2906,7 @@ make_sort(PlannerInfo *root, Plan *lefttree, int numCols,
  * once as a sort key column; if so, the extra mentions are redundant.
  *
  * Caller is assumed to have allocated the arrays large enough for the
- * max possible number of columns. Return value is the new column count.
+ * max possible number of columns.  Return value is the new column count.
  */
 static int
 add_sort_column(AttrNumber colIdx, Oid sortOp, bool nulls_first,
@@ -3008,7 +3008,7 @@ make_sort_from_pathkeys(PlannerInfo *root, Plan *lefttree, List *pathkeys,
            /*
             * Otherwise, we can sort by any non-constant expression listed in
             * the pathkey's EquivalenceClass.  For now, we take the first one
-            * that corresponds to an available item in the tlist.  If there
+            * that corresponds to an available item in the tlist.  If there
             * isn't any, use the first one that is an expression in the
             * input's vars.  (The non-const restriction only matters if the
             * EC is below_outer_join; but if it isn't, it won't contain
@@ -3264,7 +3264,7 @@ make_material(Plan *lefttree)
  * materialize_finished_plan: stick a Material node atop a completed plan
  *
  * There are a couple of places where we want to attach a Material node
- * after completion of subquery_planner(). This currently requires hackery.
+ * after completion of subquery_planner().  This currently requires hackery.
  * Since subquery_planner has already run SS_finalize_plan on the subplan
  * tree, we have to kluge up parameter lists for the Material node.
  * Possibly this could be fixed by postponing SS_finalize_plan processing
@@ -3476,7 +3476,7 @@ make_group(PlannerInfo *root,
 
 /*
  * distinctList is a list of SortGroupClauses, identifying the targetlist items
- * that should be considered by the Unique filter. The input path must
+ * that should be considered by the Unique filter.  The input path must
  * already be sorted accordingly.
  */
 Unique *
@@ -3494,7 +3494,7 @@ make_unique(Plan *lefttree, List *distinctList)
 
    /*
     * Charge one cpu_operator_cost per comparison per input tuple. We assume
-    * all columns get compared at most of the tuples.  (XXX probably this is
+    * all columns get compared at most of the tuples.  (XXX probably this is
     * an overestimate.)
     */
    plan->total_cost += cpu_operator_cost * plan->plan_rows * numCols;
index be0ace6c0ce4713613ec2d2a6bc08c1b799a33e0..68e6d7abf167a8e9b0a5588cc0adff858bd1d280 100644 (file)
@@ -76,12 +76,12 @@ static void check_hashjoinable(RestrictInfo *restrictinfo);
  *   appearing in the jointree.
  *
  * The initial invocation must pass root->parse->jointree as the value of
- * jtnode. Internally, the function recurses through the jointree.
+ * jtnode.  Internally, the function recurses through the jointree.
  *
  * At the end of this process, there should be one baserel RelOptInfo for
  * every non-join RTE that is used in the query.  Therefore, this routine
  * is the only place that should call build_simple_rel with reloptkind
- * RELOPT_BASEREL. (Note: build_simple_rel recurses internally to build
+ * RELOPT_BASEREL.  (Note: build_simple_rel recurses internally to build
  * "other rel" RelOptInfos for the members of any appendrels we find here.)
  */
 void
@@ -221,7 +221,7 @@ add_vars_to_targetlist(PlannerInfo *root, List *vars,
  * deconstruct_jointree
  *   Recursively scan the query's join tree for WHERE and JOIN/ON qual
  *   clauses, and add these to the appropriate restrictinfo and joininfo
- *   lists belonging to base RelOptInfos.  Also, add SpecialJoinInfo nodes
+ *   lists belonging to base RelOptInfos.  Also, add SpecialJoinInfo nodes
  *   to root->join_info_list for any outer joins appearing in the query tree.
  *   Return a "joinlist" data structure showing the join order decisions
  *   that need to be made by make_one_rel().
@@ -238,9 +238,9 @@ add_vars_to_targetlist(PlannerInfo *root, List *vars,
  * be evaluated at the lowest level where all the variables it mentions are
  * available.  However, we cannot push a qual down into the nullable side(s)
  * of an outer join since the qual might eliminate matching rows and cause a
- * NULL row to be incorrectly emitted by the join. Therefore, we artificially
+ * NULL row to be incorrectly emitted by the join.  Therefore, we artificially
  * OR the minimum-relids of such an outer join into the required_relids of
- * clauses appearing above it. This forces those clauses to be delayed until
+ * clauses appearing above it.  This forces those clauses to be delayed until
  * application of the outer join (or maybe even higher in the join tree).
  */
 List *
@@ -376,7 +376,7 @@ deconstruct_recurse(PlannerInfo *root, Node *jtnode, bool below_outer_join,
         * regard for whether this level is an outer join, which is correct.
         * Then we place our own join quals, which are restricted by lower
         * outer joins in any case, and are forced to this level if this is an
-        * outer join and they mention the outer side.  Finally, if this is an
+        * outer join and they mention the outer side.  Finally, if this is an
         * outer join, we create a join_info_list entry for the join.  This
         * will prevent quals above us in the join tree that use those rels
         * from being pushed down below this level.  (It's okay for upper
@@ -577,7 +577,7 @@ make_outerjoininfo(PlannerInfo *root,
     * any nullable rel is FOR UPDATE/SHARE.
     *
     * You might be wondering why this test isn't made far upstream in the
-    * parser.  It's because the parser hasn't got enough info --- consider
+    * parser.  It's because the parser hasn't got enough info --- consider
     * FOR UPDATE applied to a view.  Only after rewriting and flattening do
     * we know whether the view contains an outer join.
     */
@@ -629,7 +629,7 @@ make_outerjoininfo(PlannerInfo *root,
    min_lefthand = bms_intersect(clause_relids, left_rels);
 
    /*
-    * Similarly for required RHS.  But here, we must also include any lower
+    * Similarly for required RHS.  But here, we must also include any lower
     * inner joins, to ensure we don't try to commute with any of them.
     */
    min_righthand = bms_int_members(bms_union(clause_relids, inner_join_rels),
@@ -681,7 +681,7 @@ make_outerjoininfo(PlannerInfo *root,
         * Here, we have to consider that "our join condition" includes any
         * clauses that syntactically appeared above the lower OJ and below
         * ours; those are equivalent to degenerate clauses in our OJ and must
-        * be treated as such.  Such clauses obviously can't reference our
+        * be treated as such.  Such clauses obviously can't reference our
         * LHS, and they must be non-strict for the lower OJ's RHS (else
         * reduce_outer_joins would have reduced the lower OJ to a plain
         * join).  Hence the other ways in which we handle clauses within our
@@ -765,7 +765,7 @@ make_outerjoininfo(PlannerInfo *root,
  * distribute_qual_to_rels
  *   Add clause information to either the baserestrictinfo or joininfo list
  *   (depending on whether the clause is a join) of each base relation
- *   mentioned in the clause.  A RestrictInfo node is created and added to
+ *   mentioned in the clause.  A RestrictInfo node is created and added to
  *   the appropriate list for each rel.  Alternatively, if the clause uses a
  *   mergejoinable operator and is not delayed by outer-join rules, enter
  *   the left- and right-side expressions into the query's list of
@@ -847,10 +847,10 @@ distribute_qual_to_rels(PlannerInfo *root, Node *clause,
     * gating Result plan node.  We put such a clause into the regular
     * RestrictInfo lists for the moment, but eventually createplan.c will
     * pull it out and make a gating Result node immediately above whatever
-    * plan node the pseudoconstant clause is assigned to.  It's usually best
+    * plan node the pseudoconstant clause is assigned to.  It's usually best
     * to put a gating node as high in the plan tree as possible. If we are
     * not below an outer join, we can actually push the pseudoconstant qual
-    * all the way to the top of the tree.  If we are below an outer join, we
+    * all the way to the top of the tree.  If we are below an outer join, we
     * leave the qual at its original syntactic level (we could push it up to
     * just below the outer join, but that seems more complex than it's
     * worth).
@@ -904,7 +904,7 @@ distribute_qual_to_rels(PlannerInfo *root, Node *clause,
     * Note: it is not immediately obvious that a simple boolean is enough
     * for this: if for some reason we were to attach a degenerate qual to
     * its original join level, it would need to be treated as an outer join
-    * qual there.  However, this cannot happen, because all the rels the
+    * qual there.  However, this cannot happen, because all the rels the
     * clause mentions must be in the outer join's min_righthand, therefore
     * the join it needs must be formed before the outer join; and we always
     * attach quals to the lowest level where they can be evaluated.  But
@@ -938,7 +938,7 @@ distribute_qual_to_rels(PlannerInfo *root, Node *clause,
         * We can't use such a clause to deduce equivalence (the left and
         * right sides might be unequal above the join because one of them has
         * gone to NULL) ... but we might be able to use it for more limited
-        * deductions, if it is mergejoinable.  So consider adding it to the
+        * deductions, if it is mergejoinable.  So consider adding it to the
         * lists of set-aside outer-join clauses.
         */
        is_pushed_down = false;
@@ -968,7 +968,7 @@ distribute_qual_to_rels(PlannerInfo *root, Node *clause,
    else
    {
        /*
-        * Normal qual clause or degenerate outer-join clause.  Either way, we
+        * Normal qual clause or degenerate outer-join clause.  Either way, we
         * can mark it as pushed-down.
         */
        is_pushed_down = true;
@@ -1143,7 +1143,7 @@ distribute_qual_to_rels(PlannerInfo *root, Node *clause,
  * For an is_pushed_down qual, we can evaluate the qual as soon as (1) we have
  * all the rels it mentions, and (2) we are at or above any outer joins that
  * can null any of these rels and are below the syntactic location of the
- * given qual. We must enforce (2) because pushing down such a clause below
+ * given qual.  We must enforce (2) because pushing down such a clause below
  * the OJ might cause the OJ to emit null-extended rows that should not have
  * been formed, or that should have been rejected by the clause.  (This is
  * only an issue for non-strict quals, since if we can prove a qual mentioning
@@ -1169,7 +1169,7 @@ distribute_qual_to_rels(PlannerInfo *root, Node *clause,
  * required relids overlap the LHS too) causes that OJ's delay_upper_joins
  * flag to be set TRUE.  This will prevent any higher-level OJs from
  * being interchanged with that OJ, which would result in not having any
- * correct place to evaluate the qual. (The case we care about here is a
+ * correct place to evaluate the qual.  (The case we care about here is a
  * sub-select WHERE clause within the RHS of some outer join.  The WHERE
  * clause must effectively be treated as a degenerate clause of that outer
  * join's condition.  Rather than trying to match such clauses with joins
@@ -1556,7 +1556,7 @@ check_mergejoinable(RestrictInfo *restrictinfo)
  *   info fields in the restrictinfo.
  *
  *   Currently, we support hashjoin for binary opclauses where
- *   the operator is a hashjoinable operator.  The arguments can be
+ *   the operator is a hashjoinable operator.  The arguments can be
  *   anything --- as long as there are no volatile functions in them.
  */
 static void
index 6bdbd2a913deb8e44b417c55b72717cc854a5fb5..a3d86c695937e9036c521e1bb22f3e3779d8f536 100644 (file)
@@ -64,7 +64,7 @@ static Oid    fetch_agg_sort_op(Oid aggfnoid);
  * generic scan-all-the-rows plan.
  *
  * We are passed the preprocessed tlist, and the best path
- * devised for computing the input of a standard Agg node. If we are able
+ * devised for computing the input of a standard Agg node.  If we are able
  * to optimize all the aggregates, and the result is estimated to be cheaper
  * than the generic aggregate method, then generate and return a Plan that
  * does it that way.  Otherwise, return NULL.
@@ -127,7 +127,7 @@ optimize_minmax_aggregates(PlannerInfo *root, List *tlist, Path *best_path)
    /*
     * Since this optimization is not applicable all that often, we want to
     * fall out before doing very much work if possible.  Therefore we do the
-    * work in several passes.  The first pass scans the tlist and HAVING qual
+    * work in several passes.  The first pass scans the tlist and HAVING qual
     * to find all the aggregates and verify that each of them is a MIN/MAX
     * aggregate.  If that succeeds, the second pass looks at each aggregate
     * to see if it is optimizable; if so we make an IndexPath describing how
@@ -480,7 +480,7 @@ make_agg_subplan(PlannerInfo *root, MinMaxAggInfo *info)
    SortGroupClause *sortcl;
 
    /*
-    * Generate a suitably modified query.  Much of the work here is probably
+    * Generate a suitably modified query.  Much of the work here is probably
     * unnecessary in the normal case, but we want to make it look good if
     * someone tries to EXPLAIN the result.
     */
@@ -523,7 +523,7 @@ make_agg_subplan(PlannerInfo *root, MinMaxAggInfo *info)
                                              FLOAT8PASSBYVAL);
 
    /*
-    * Generate the plan for the subquery.  We already have a Path for the
+    * Generate the plan for the subquery.  We already have a Path for the
     * basic indexscan, but we have to convert it to a Plan and attach a LIMIT
     * node above it.
     *
index 04d86c2aaa00e1ddf7d8c8d8c83c417422f68d3a..4ac3685b7c66949632322a27d575fd71db501d85 100644 (file)
@@ -35,7 +35,7 @@
  *   which may involve joins but not any fancier features.
  *
  * Since query_planner does not handle the toplevel processing (grouping,
- * sorting, etc) it cannot select the best path by itself. It selects
+ * sorting, etc) it cannot select the best path by itself.  It selects
  * two paths: the cheapest path that produces all the required tuples,
  * independent of any ordering considerations, and the cheapest path that
  * produces the expected fraction of the required tuples in the required
@@ -59,7 +59,7 @@
  *             does not use grouping
  *
  * Note: the PlannerInfo node also includes a query_pathkeys field, which is
- * both an input and an output of query_planner(). The input value signals
+ * both an input and an output of query_planner().  The input value signals
  * query_planner that the indicated sort order is wanted in the final output
  * plan.  But this value has not yet been "canonicalized", since the needed
  * info does not get computed until we scan the qual clauses.  We canonicalize
@@ -103,7 +103,7 @@ query_planner(PlannerInfo *root, List *tlist,
 
    /*
     * If the query has an empty join tree, then it's something easy like
-    * "SELECT 2+2;" or "INSERT ... VALUES()".  Fall through quickly.
+    * "SELECT 2+2;" or "INSERT ... VALUES()".  Fall through quickly.
     */
    if (parse->jointree->fromlist == NIL)
    {
@@ -179,7 +179,7 @@ query_planner(PlannerInfo *root, List *tlist,
 
    /*
     * We should now have size estimates for every actual table involved in
-    * the query, so we can compute total_table_pages.  Note that appendrels
+    * the query, so we can compute total_table_pages.  Note that appendrels
     * are not double-counted here, even though we don't bother to distinguish
     * RelOptInfos for appendrel parents, because the parents will still have
     * size zero.
@@ -227,14 +227,14 @@ query_planner(PlannerInfo *root, List *tlist,
 
    /*
     * If we formed any equivalence classes, generate additional restriction
-    * clauses as appropriate.  (Implied join clauses are formed on-the-fly
+    * clauses as appropriate.  (Implied join clauses are formed on-the-fly
     * later.)
     */
    generate_base_implied_equalities(root);
 
    /*
     * We have completed merging equivalence sets, so it's now possible to
-    * convert the requested query_pathkeys to canonical form.  Also
+    * convert the requested query_pathkeys to canonical form.  Also
     * canonicalize the groupClause, windowClause, distinctClause and
     * sortClause pathkeys for use later.
     */
@@ -294,7 +294,7 @@ query_planner(PlannerInfo *root, List *tlist,
        /*
         * If both GROUP BY and ORDER BY are specified, we will need two
         * levels of sort --- and, therefore, certainly need to read all the
-        * tuples --- unless ORDER BY is a subset of GROUP BY.  Likewise if we
+        * tuples --- unless ORDER BY is a subset of GROUP BY.  Likewise if we
         * have both DISTINCT and GROUP BY, or if we have a window
         * specification not compatible with the GROUP BY.
         */
index 042c1d0676dbbedb1bb4041cd655bb907d314491..65daa18e869c8cd37b9cb00a9d326dbccc90a2dc 100644 (file)
@@ -172,7 +172,7 @@ standard_planner(Query *parse, int cursorOptions, ParamListInfo boundParams)
 
        /*
         * We document cursor_tuple_fraction as simply being a fraction, which
-        * means the edge cases 0 and 1 have to be treated specially here.  We
+        * means the edge cases 0 and 1 have to be treated specially here.  We
         * convert 1 to 0 ("all the tuples") and 0 to a very small fraction.
         */
        if (tuple_fraction >= 1.0)
@@ -418,7 +418,7 @@ subquery_planner(PlannerGlobal *glob, Query *parse,
     * to execute that we're better off doing it only once per group, despite
     * the loss of selectivity.  This is hard to estimate short of doing the
     * entire planning process twice, so we use a heuristic: clauses
-    * containing subplans are left in HAVING.  Otherwise, we move or copy the
+    * containing subplans are left in HAVING.  Otherwise, we move or copy the
     * HAVING clause into WHERE, in hopes of eliminating tuples before
     * aggregation instead of after.
     *
@@ -529,7 +529,7 @@ preprocess_expression(PlannerInfo *root, Node *expr, int kind)
     * Simplify constant expressions.
     *
     * Note: one essential effect here is to insert the current actual values
-    * of any default arguments for functions.  To ensure that happens, we
+    * of any default arguments for functions.  To ensure that happens, we
     * *must* process all expressions here.  Previous PG versions sometimes
     * skipped const-simplification if it didn't seem worth the trouble, but
     * we can't do that anymore.
@@ -798,7 +798,7 @@ grouping_planner(PlannerInfo *root, double tuple_fraction)
 
        /*
         * If there's a top-level ORDER BY, assume we have to fetch all the
-        * tuples.  This might be too simplistic given all the hackery below
+        * tuples.  This might be too simplistic given all the hackery below
         * to possibly avoid the sort; but the odds of accurate estimates here
         * are pretty low anyway.
         */
@@ -826,7 +826,7 @@ grouping_planner(PlannerInfo *root, double tuple_fraction)
 
        /*
         * We should not need to call preprocess_targetlist, since we must be
-        * in a SELECT query node.  Instead, use the targetlist returned by
+        * in a SELECT query node.  Instead, use the targetlist returned by
         * plan_set_operations (since this tells whether it returned any
         * resjunk columns!), and transfer any sort key information from the
         * original tlist.
@@ -910,7 +910,7 @@ grouping_planner(PlannerInfo *root, double tuple_fraction)
        /*
         * Calculate pathkeys that represent grouping/ordering requirements.
         * Stash them in PlannerInfo so that query_planner can canonicalize
-        * them after EquivalenceClasses have been formed.  The sortClause is
+        * them after EquivalenceClasses have been formed.  The sortClause is
         * certainly sort-able, but GROUP BY and DISTINCT might not be, in
         * which case we just leave their pathkeys empty.
         */
@@ -984,7 +984,7 @@ grouping_planner(PlannerInfo *root, double tuple_fraction)
         * Note: if we have both ORDER BY and GROUP BY, and ORDER BY is a
         * superset of GROUP BY, it would be tempting to request sort by ORDER
         * BY --- but that might just leave us failing to exploit an available
-        * sort order at all.  Needs more thought.  The choice for DISTINCT
+        * sort order at all.  Needs more thought.  The choice for DISTINCT
         * versus ORDER BY is much easier, since we know that the parser
         * ensured that one is a superset of the other.
         */
@@ -1019,7 +1019,7 @@ grouping_planner(PlannerInfo *root, double tuple_fraction)
 
            /*
             * Executor doesn't support hashed aggregation with DISTINCT
-            * aggregates.  (Doing so would imply storing *all* the input
+            * aggregates.  (Doing so would imply storing *all* the input
             * values in the hash table, which seems like a certain loser.)
             */
            can_hash = (agg_counts.numDistinctAggs == 0 &&
@@ -1102,7 +1102,7 @@ grouping_planner(PlannerInfo *root, double tuple_fraction)
            /*
             * create_plan() returns a plan with just a "flat" tlist of
             * required Vars.  Usually we need to insert the sub_tlist as the
-            * tlist of the top plan node.  However, we can skip that if we
+            * tlist of the top plan node.  However, we can skip that if we
             * determined that whatever query_planner chose to return will be
             * good enough.
             */
@@ -1265,7 +1265,7 @@ grouping_planner(PlannerInfo *root, double tuple_fraction)
                 * Furthermore, there cannot be any variables in either HAVING
                 * or the targetlist, so we actually do not need the FROM
                 * table at all!  We can just throw away the plan-so-far and
-                * generate a Result node.  This is a sufficiently unusual
+                * generate a Result node.  This is a sufficiently unusual
                 * corner case that it's not worth contorting the structure of
                 * this routine to avoid having to generate the plan in the
                 * first place.
@@ -1314,7 +1314,7 @@ grouping_planner(PlannerInfo *root, double tuple_fraction)
             * make_sort_from_pathkeys won't add those on its own, and anyway
             * we want them evaluated only once at the bottom of the stack.
             * As we climb up the stack, we add outputs for the WindowFuncs
-            * computed at each level.  Also, each input tlist has to present
+            * computed at each level.  Also, each input tlist has to present
             * all the columns needed to sort the data for the next WindowAgg
             * step.  That's handled internally by make_sort_from_pathkeys,
             * but we need the copyObject steps here to ensure that each plan
@@ -1638,7 +1638,7 @@ is_dummy_plan(Plan *plan)
  * preprocess_limit - do pre-estimation for LIMIT and/or OFFSET clauses
  *
  * We try to estimate the values of the LIMIT/OFFSET clauses, and pass the
- * results back in *count_est and *offset_est. These variables are set to
+ * results back in *count_est and *offset_est.  These variables are set to
  * 0 if the corresponding clause is not present, and -1 if it's present
  * but we couldn't estimate the value for it.  (The "0" convention is OK
  * for OFFSET but a little bit bogus for LIMIT: effectively we estimate
@@ -1647,7 +1647,7 @@ is_dummy_plan(Plan *plan)
  * be passed to make_limit, which see if you change this code.
  *
  * The return value is the suitably adjusted tuple_fraction to use for
- * planning the query. This adjustment is not overridable, since it reflects
+ * planning the query.  This adjustment is not overridable, since it reflects
  * plan actions that grouping_planner() will certainly take, not assumptions
  * about context.
  */
@@ -1771,7 +1771,7 @@ preprocess_limit(PlannerInfo *root, double tuple_fraction,
    else if (*offset_est != 0 && tuple_fraction > 0.0)
    {
        /*
-        * We have an OFFSET but no LIMIT.  This acts entirely differently
+        * We have an OFFSET but no LIMIT.  This acts entirely differently
         * from the LIMIT case: here, we need to increase rather than decrease
         * the caller's tuple_fraction, because the OFFSET acts to cause more
         * tuples to be fetched instead of fewer.  This only matters if we got
@@ -1786,7 +1786,7 @@ preprocess_limit(PlannerInfo *root, double tuple_fraction,
 
        /*
         * If we have absolute counts from both caller and OFFSET, add them
-        * together; likewise if they are both fractional.  If one is
+        * together; likewise if they are both fractional.  If one is
         * fractional and the other absolute, we want to take the larger, and
         * we heuristically assume that's the fractional one.
         */
@@ -2057,7 +2057,7 @@ choose_hashed_grouping(PlannerInfo *root,
  * differences that it doesn't seem worth trying to unify the two functions.
  *
  * But note that making the two choices independently is a bit bogus in
- * itself. If the two could be combined into a single choice operation
+ * itself.  If the two could be combined into a single choice operation
  * it'd probably be better, but that seems far too unwieldy to be practical,
  * especially considering that the combination of GROUP BY and DISTINCT
  * isn't very common in real queries.  By separating them, we are giving
@@ -2119,7 +2119,7 @@ choose_hashed_distinct(PlannerInfo *root,
                  dNumDistinctRows, input_plan->plan_width, limit_tuples);
 
    /*
-    * Now for the GROUP case.  See comments in grouping_planner about the
+    * Now for the GROUP case.  See comments in grouping_planner about the
     * sorting choices here --- this code should match that code.
     */
    sorted_p.startup_cost = input_plan->startup_cost;
@@ -2185,7 +2185,7 @@ choose_hashed_distinct(PlannerInfo *root,
  * we want to pass this targetlist to the subplan:
  *     a,b,c,d,a+b
  * where the a+b target will be used by the Sort/Group steps, and the
- * other targets will be used for computing the final results. (In the
+ * other targets will be used for computing the final results.  (In the
  * above example we could theoretically suppress the a and b targets and
  * pass down only c,d,a+b, but it's not really worth the trouble to
  * eliminate simple var references from the subplan.  We will avoid doing
@@ -2298,7 +2298,7 @@ make_subplanTargetList(PlannerInfo *root,
  *     Locate grouping columns in the tlist chosen by query_planner.
  *
  * This is only needed if we don't use the sub_tlist chosen by
- * make_subplanTargetList. We have to forget the column indexes found
+ * make_subplanTargetList.  We have to forget the column indexes found
  * by that routine and re-locate the grouping exprs in the real sub_tlist.
  * We assume the grouping exprs are just Vars (see make_subplanTargetList).
  */
@@ -2329,11 +2329,11 @@ locate_grouping_columns(PlannerInfo *root,
 
        /*
         * The grouping column returned by create_plan might not have the same
-        * typmod as the original Var.  (This can happen in cases where a
+        * typmod as the original Var.  (This can happen in cases where a
         * set-returning function has been inlined, so that we now have more
         * knowledge about what it returns than we did when the original Var
         * was created.)  So we can't use tlist_member() to search the tlist;
-        * instead use tlist_member_match_var.  For safety, still check that
+        * instead use tlist_member_match_var.  For safety, still check that
         * the vartype matches.
         */
        if (!(groupexpr && IsA(groupexpr, Var)))
@@ -2562,7 +2562,7 @@ make_pathkeys_for_window(PlannerInfo *root, WindowClause *wc,
  * This depends on the behavior of make_pathkeys_for_window()!
  *
  * We are given the target WindowClause and an array of the input column
- * numbers associated with the resulting pathkeys. In the easy case, there
+ * numbers associated with the resulting pathkeys.  In the easy case, there
  * are the same number of pathkey columns as partitioning + ordering columns
  * and we just have to copy some data around.  However, it's possible that
  * some of the original partitioning + ordering columns were eliminated as
@@ -2574,7 +2574,7 @@ make_pathkeys_for_window(PlannerInfo *root, WindowClause *wc,
  * determine which keys are significant.
  *
  * The method used here is a bit brute-force: add the sort columns to a list
- * one at a time and note when the resulting pathkey list gets longer. But
+ * one at a time and note when the resulting pathkey list gets longer.  But
  * it's a sufficiently uncommon case that a faster way doesn't seem worth
  * the amount of code refactoring that'd be needed.
  *----------
@@ -2676,7 +2676,7 @@ get_column_info_for_window(PlannerInfo *root, WindowClause *wc, List *tlist,
  * Currently, we disallow sublinks in standalone expressions, so there's no
  * real "planning" involved here.  (That might not always be true though.)
  * What we must do is run eval_const_expressions to ensure that any function
- * default arguments get inserted. The fact that constant subexpressions
+ * default arguments get inserted.  The fact that constant subexpressions
  * get simplified is a side-effect that is useful when the expression will
  * get evaluated more than once.  Also, we must fix operator function IDs.
  *
index e006633b3971cf2eb6e4acaa3551b3f7cd996aa2..41fb9dde93cffd981fd7781264903d62d3bf8bc5 100644 (file)
@@ -132,7 +132,7 @@ static bool extract_query_dependencies_walker(Node *node,
 /*
  * set_plan_references
  *
- * This is the final processing pass of the planner/optimizer. The plan
+ * This is the final processing pass of the planner/optimizer.  The plan
  * tree is complete; we just have to adjust some representational details
  * for the convenience of the executor:
  *
@@ -179,7 +179,7 @@ static bool extract_query_dependencies_walker(Node *node,
  * and glob->invalItems (for everything else).
  *
  * Notice that we modify Plan nodes in-place, but use expression_tree_mutator
- * to process targetlist and qual expressions. We can assume that the Plan
+ * to process targetlist and qual expressions.  We can assume that the Plan
  * nodes were just built by the planner and are not multiply referenced, but
  * it's not so safe to assume that for expression tree nodes.
  */
@@ -223,7 +223,7 @@ set_plan_references(PlannerGlobal *glob, Plan *plan, List *rtable)
         * We do this even though the RTE might be unreferenced in the plan
         * tree; this would correspond to cases such as views that were
         * expanded, child tables that were eliminated by constraint
-        * exclusion, etc.  Schema invalidation on such a rel must still force
+        * exclusion, etc.  Schema invalidation on such a rel must still force
         * rebuilding of the plan.
         *
         * Note we don't bother to avoid duplicate list entries.  We could,
@@ -388,7 +388,7 @@ set_plan_refs(PlannerGlobal *glob, Plan *plan, int rtoffset)
            /*
             * These plan types don't actually bother to evaluate their
             * targetlists, because they just return their unmodified input
-            * tuples.  Even though the targetlist won't be used by the
+            * tuples.  Even though the targetlist won't be used by the
             * executor, we fix it up for possible use by EXPLAIN (not to
             * mention ease of debugging --- wrong varnos are very confusing).
             */
@@ -572,7 +572,7 @@ set_subqueryscan_references(PlannerGlobal *glob,
    else
    {
        /*
-        * Keep the SubqueryScan node.  We have to do the processing that
+        * Keep the SubqueryScan node.  We have to do the processing that
         * set_plan_references would otherwise have done on it.  Notice we do
         * not do set_upper_references() here, because a SubqueryScan will
         * always have been created with correct references to its subplan's
@@ -785,7 +785,7 @@ fix_scan_expr_mutator(Node *node, fix_scan_expr_context *context)
 
        /*
         * We should not see any Vars marked INNER, but in a nestloop inner
-        * scan there could be OUTER Vars.  Leave them alone.
+        * scan there could be OUTER Vars.  Leave them alone.
         */
        Assert(var->varno != INNER);
        if (var->varno > 0 && var->varno != OUTER)
@@ -908,7 +908,7 @@ set_join_references(PlannerGlobal *glob, Join *join, int rtoffset)
  *
  * To handle bitmap-scan plan trees, we have to be able to recurse down
  * to the bottom BitmapIndexScan nodes; likewise, appendrel indexscans
- * require recursing through Append nodes. This is split out as a separate
+ * require recursing through Append nodes.  This is split out as a separate
  * function so that it can recurse.
  *
  * Note we do *not* apply any rtoffset for non-join Vars; this is because
@@ -923,7 +923,7 @@ set_inner_join_references(PlannerGlobal *glob, Plan *inner_plan,
    {
        /*
         * An index is being used to reduce the number of tuples scanned in
-        * the inner relation.  If there are join clauses being used with the
+        * the inner relation.  If there are join clauses being used with the
         * index, we must update their outer-rel var nodes to refer to the
         * outer side of the join.
         */
@@ -1214,7 +1214,7 @@ set_dummy_tlist_references(Plan *plan, int rtoffset)
  *
  * In most cases, subplan tlists will be "flat" tlists with only Vars,
  * so we try to optimize that case by extracting information about Vars
- * in advance. Matching a parent tlist to a child is still an O(N^2)
+ * in advance.  Matching a parent tlist to a child is still an O(N^2)
  * operation, but at least with a much smaller constant factor than plain
  * tlist_member() searches.
  *
@@ -1664,7 +1664,7 @@ fix_upper_expr_mutator(Node *node, fix_upper_expr_context *context)
  * adjust any Vars that refer to other tables to reference junk tlist
  * entries in the top plan's targetlist.  Vars referencing the result
  * table should be left alone, however (the executor will evaluate them
- * using the actual heap tuple, after firing triggers if any). In the
+ * using the actual heap tuple, after firing triggers if any).  In the
  * adjusted RETURNING list, result-table Vars will still have their
  * original varno, but Vars for other rels will have varno OUTER.
  *
index bf0f25d78132b9fae48605ca057a9ce7d6261ef3..ff9a3503547745c32fb4a516ce0d2ecb212d1d50 100644 (file)
@@ -333,7 +333,7 @@ make_subplan(PlannerInfo *root, Query *orig_subquery, SubLinkType subLinkType,
    Node       *result;
 
    /*
-    * Copy the source Query node.  This is a quick and dirty kluge to resolve
+    * Copy the source Query node.  This is a quick and dirty kluge to resolve
     * the fact that the parser can generate trees with multiple links to the
     * same sub-Query node, but the planner wants to scribble on the Query.
     * Try to clean this up when we do querytree redesign...
@@ -358,7 +358,7 @@ make_subplan(PlannerInfo *root, Query *orig_subquery, SubLinkType subLinkType,
     * path/costsize.c.
     *
     * XXX If an ANY subplan is uncorrelated, build_subplan may decide to hash
-    * its output.  In that case it would've been better to specify full
+    * its output.  In that case it would've been better to specify full
     * retrieval.  At present, however, we can only check hashability after
     * we've made the subplan :-(.  (Determining whether it'll fit in work_mem
     * is the really hard part.)  Therefore, we don't want to be too
@@ -396,7 +396,7 @@ make_subplan(PlannerInfo *root, Query *orig_subquery, SubLinkType subLinkType,
    /*
     * If it's a correlated EXISTS with an unimportant targetlist, we might be
     * able to transform it to the equivalent of an IN and then implement it
-    * by hashing.  We don't have enough information yet to tell which way is
+    * by hashing.  We don't have enough information yet to tell which way is
     * likely to be better (it depends on the expected number of executions of
     * the EXISTS qual, and we are much too early in planning the outer query
     * to be able to guess that).  So we generate both plans, if possible, and
@@ -622,7 +622,7 @@ build_subplan(PlannerInfo *root, Plan *plan, List *rtable,
         * Otherwise, we have the option to tack a MATERIAL node onto the top
         * of the subplan, to reduce the cost of reading it repeatedly.  This
         * is pointless for a direct-correlated subplan, since we'd have to
-        * recompute its results each time anyway.  For uncorrelated/undirect
+        * recompute its results each time anyway.  For uncorrelated/undirect
         * correlated subplans, we add MATERIAL unless the subplan's top plan
         * node would materialize its output anyway.
         */
@@ -663,10 +663,10 @@ build_subplan(PlannerInfo *root, Plan *plan, List *rtable,
 
    /*
     * A parameterless subplan (not initplan) should be prepared to handle
-    * REWIND efficiently.  If it has direct parameters then there's no point
+    * REWIND efficiently.  If it has direct parameters then there's no point
     * since it'll be reset on each scan anyway; and if it's an initplan then
     * there's no point since it won't get re-run without parameter changes
-    * anyway.  The input of a hashed subplan doesn't need REWIND either.
+    * anyway.  The input of a hashed subplan doesn't need REWIND either.
     */
    if (splan->parParam == NIL && !isInitPlan && !splan->useHashTable)
        root->glob->rewindPlanIDs = bms_add_member(root->glob->rewindPlanIDs,
@@ -769,7 +769,7 @@ generate_subquery_vars(PlannerInfo *root, List *tlist, Index varno)
 /*
  * convert_testexpr: convert the testexpr given by the parser into
  * actually executable form.  This entails replacing PARAM_SUBLINK Params
- * with Params or Vars representing the results of the sub-select. The
+ * with Params or Vars representing the results of the sub-select.  The
  * nodes to be substituted are passed in as the List result from
  * generate_subquery_params or generate_subquery_vars.
  */
@@ -871,7 +871,7 @@ testexpr_is_hashable(Node *testexpr)
     *
     * The combining operators must be hashable and strict. The need for
     * hashability is obvious, since we want to use hashing. Without
-    * strictness, behavior in the presence of nulls is too unpredictable.  We
+    * strictness, behavior in the presence of nulls is too unpredictable.  We
     * actually must assume even more than plain strictness: they can't yield
     * NULL for non-null inputs, either (see nodeSubplan.c).  However, hash
     * indexes and hash joins assume that too.
@@ -962,7 +962,7 @@ SS_process_ctes(PlannerInfo *root)
        }
 
        /*
-        * Copy the source Query node.  Probably not necessary, but let's keep
+        * Copy the source Query node.  Probably not necessary, but let's keep
         * this similar to make_subplan.
         */
        subquery = (Query *) copyObject(cte->ctequery);
@@ -988,7 +988,7 @@ SS_process_ctes(PlannerInfo *root)
            elog(ERROR, "unexpected outer reference in CTE query");
 
        /*
-        * Make a SubPlan node for it.  This is just enough unlike
+        * Make a SubPlan node for it.  This is just enough unlike
         * build_subplan that we can't share code.
         *
         * Note plan_id, plan_name, and cost fields are set further down.
@@ -1211,7 +1211,7 @@ convert_EXISTS_sublink_to_join(PlannerInfo *root, SubLink *sublink,
 
    /*
     * See if the subquery can be simplified based on the knowledge that it's
-    * being used in EXISTS().  If we aren't able to get rid of its
+    * being used in EXISTS().  If we aren't able to get rid of its
     * targetlist, we have to fail, because the pullup operation leaves us
     * with noplace to evaluate the targetlist.
     */
@@ -1260,9 +1260,9 @@ convert_EXISTS_sublink_to_join(PlannerInfo *root, SubLink *sublink,
     * what pull_up_subqueries has to go through.
     *
     * In fact, it's even easier than what convert_ANY_sublink_to_join has to
-    * do.  The machinations of simplify_EXISTS_query ensured that there is
+    * do.  The machinations of simplify_EXISTS_query ensured that there is
     * nothing interesting in the subquery except an rtable and jointree, and
-    * even the jointree FromExpr no longer has quals.  So we can just append
+    * even the jointree FromExpr no longer has quals.  So we can just append
     * the rtable to our own and use the FromExpr in our jointree. But first,
     * adjust all level-zero varnos in the subquery to account for the rtable
     * merger.
@@ -1392,7 +1392,7 @@ simplify_EXISTS_query(Query *query)
  *
  * On success, the modified subselect is returned, and we store a suitable
  * upper-level test expression at *testexpr, plus a list of the subselect's
- * output Params at *paramIds. (The test expression is already Param-ified
+ * output Params at *paramIds.  (The test expression is already Param-ified
  * and hence need not go through convert_testexpr, which is why we have to
  * deal with the Param IDs specially.)
  *
@@ -1551,7 +1551,7 @@ convert_EXISTS_to_ANY(PlannerInfo *root, Query *subselect,
        return NULL;
 
    /*
-    * Also reject sublinks in the stuff we intend to pull up.  (It might be
+    * Also reject sublinks in the stuff we intend to pull up.  (It might be
     * possible to support this, but doesn't seem worth the complication.)
     */
    if (contain_subplans((Node *) leftargs))
@@ -1750,7 +1750,7 @@ process_sublinks_mutator(Node *node, process_sublinks_context *context)
     * is needed for a bare List.)
     *
     * Anywhere within the top-level AND/OR clause structure, we can tell
-    * make_subplan() that NULL and FALSE are interchangeable.  So isTopQual
+    * make_subplan() that NULL and FALSE are interchangeable.  So isTopQual
     * propagates down in both cases.  (Note that this is unlike the meaning
     * of "top level qual" used in most other places in Postgres.)
     */
@@ -1855,7 +1855,7 @@ SS_finalize_plan(PlannerInfo *root, Plan *plan, bool attach_initplans)
     * Now determine the set of params that are validly referenceable in this
     * query level; to wit, those available from outer query levels plus the
     * output parameters of any local initPlans.  (We do not include output
-    * parameters of regular subplans.  Those should only appear within the
+    * parameters of regular subplans.  Those should only appear within the
     * testexpr of SubPlan nodes, and are taken care of locally within
     * finalize_primnode.)
     */
@@ -1999,7 +1999,7 @@ finalize_plan(PlannerInfo *root, Plan *plan, Bitmapset *valid_params)
            /*
             * In a SubqueryScan, SS_finalize_plan has already been run on the
             * subplan by the inner invocation of subquery_planner, so there's
-            * no need to do it again.  Instead, just pull out the subplan's
+            * no need to do it again.  Instead, just pull out the subplan's
             * extParams list, which represents the params it needs from my
             * level and higher levels.
             */
@@ -2222,7 +2222,7 @@ finalize_primnode(Node *node, finalize_primnode_context *context)
 
        /*
         * Remove any param IDs of output parameters of the subplan that were
-        * referenced in the testexpr.  These are not interesting for
+        * referenced in the testexpr.  These are not interesting for
         * parameter change signaling since we always re-evaluate the subplan.
         * Note that this wouldn't work too well if there might be uses of the
         * same param IDs elsewhere in the plan, but that can't happen because
index 3e9977652261d0ead43e55c9e3e4b6e8ee9a07ab..34e83bb65d7a1e651ab9be0c50f9f01e31be6c70 100644 (file)
@@ -103,7 +103,7 @@ static Node *find_jointree_node_for_rel(Node *jtnode, int relid);
  *
  * A clause "foo op ANY (sub-SELECT)" can be processed by pulling the
  * sub-SELECT up to become a rangetable entry and treating the implied
- * comparisons as quals of a semijoin. However, this optimization *only*
+ * comparisons as quals of a semijoin.  However, this optimization *only*
  * works at the top level of WHERE or a JOIN/ON clause, because we cannot
  * distinguish whether the ANY ought to return FALSE or NULL in cases
  * involving NULL inputs.  Also, in an outer join's ON clause we can only
@@ -120,7 +120,7 @@ static Node *find_jointree_node_for_rel(Node *jtnode, int relid);
  * transformations if any are found.
  *
  * This routine has to run before preprocess_expression(), so the quals
- * clauses are not yet reduced to implicit-AND format. That means we need
+ * clauses are not yet reduced to implicit-AND format.  That means we need
  * to recursively search through explicit AND clauses, which are
  * probably only binary ANDs.  We stop as soon as we hit a non-AND item.
  */
@@ -238,7 +238,7 @@ pull_up_sublinks_jointree_recurse(PlannerInfo *root, Node *jtnode,
         * pull up quals for which that's okay.
         *
         * XXX for the moment, we refrain from pulling up IN/EXISTS clauses
-        * appearing in LEFT or RIGHT join conditions.  Although it is
+        * appearing in LEFT or RIGHT join conditions.  Although it is
         * semantically valid to do so under the above conditions, we end up
         * with a query in which the semijoin or antijoin must be evaluated
         * below the outer join, which could perform far worse than leaving it
@@ -284,7 +284,7 @@ pull_up_sublinks_jointree_recurse(PlannerInfo *root, Node *jtnode,
        /*
         * Although we could include the pulled-up subqueries in the returned
         * relids, there's no need since upper quals couldn't refer to their
-        * outputs anyway.  But we *do* need to include the join's own rtindex
+        * outputs anyway.  But we *do* need to include the join's own rtindex
         * because we haven't yet collapsed join alias variables, so upper
         * levels would mistakenly think they couldn't use references to this
         * join.
@@ -624,7 +624,7 @@ pull_up_subqueries(PlannerInfo *root, Node *jtnode,
  *     Attempt to pull up a single simple subquery.
  *
  * jtnode is a RangeTblRef that has been tentatively identified as a simple
- * subquery by pull_up_subqueries. We return the replacement jointree node,
+ * subquery by pull_up_subqueries.  We return the replacement jointree node,
  * or jtnode itself if we determine that the subquery can't be pulled up after
  * all.
  *
@@ -656,7 +656,7 @@ pull_up_simple_subquery(PlannerInfo *root, Node *jtnode, RangeTblEntry *rte,
     * Create a PlannerInfo data structure for this subquery.
     *
     * NOTE: the next few steps should match the first processing in
-    * subquery_planner().  Can we refactor to avoid code duplication, or
+    * subquery_planner().  Can we refactor to avoid code duplication, or
     * would that just make things uglier?
     */
    subroot = makeNode(PlannerInfo);
@@ -704,7 +704,7 @@ pull_up_simple_subquery(PlannerInfo *root, Node *jtnode, RangeTblEntry *rte,
 
    /*
     * Now we must recheck whether the subquery is still simple enough to pull
-    * up.  If not, abandon processing it.
+    * up.  If not, abandon processing it.
     *
     * We don't really need to recheck all the conditions involved, but it's
     * easier just to keep this "if" looking the same as the one in
@@ -721,7 +721,7 @@ pull_up_simple_subquery(PlannerInfo *root, Node *jtnode, RangeTblEntry *rte,
         * Give up, return unmodified RangeTblRef.
         *
         * Note: The work we just did will be redone when the subquery gets
-        * planned on its own.  Perhaps we could avoid that by storing the
+        * planned on its own.  Perhaps we could avoid that by storing the
         * modified subquery back into the rangetable, but I'm not gonna risk
         * it now.
         */
@@ -819,7 +819,7 @@ pull_up_simple_subquery(PlannerInfo *root, Node *jtnode, RangeTblEntry *rte,
     * You might think that we could avoid using PHVs for alias vars of joins
     * below lowest_outer_join, but that doesn't work because the alias vars
     * could be referenced above that join; we need the PHVs to be present in
-    * such references after the alias vars get flattened.  (It might be worth
+    * such references after the alias vars get flattened.  (It might be worth
     * trying to be smarter here, someday.)
     */
    foreach(lc, parse->rtable)
@@ -910,7 +910,7 @@ pull_up_simple_subquery(PlannerInfo *root, Node *jtnode, RangeTblEntry *rte,
  *     Pull up a single simple UNION ALL subquery.
  *
  * jtnode is a RangeTblRef that has been identified as a simple UNION ALL
- * subquery by pull_up_subqueries. We pull up the leaf subqueries and
+ * subquery by pull_up_subqueries.  We pull up the leaf subqueries and
  * build an "append relation" for the union set.  The result value is just
  * jtnode, since we don't actually need to change the query jointree.
  */
@@ -1097,7 +1097,7 @@ is_simple_subquery(Query *subquery)
 
    /*
     * Don't pull up a subquery that has any set-returning functions in its
-    * targetlist.  Otherwise we might well wind up inserting set-returning
+    * targetlist.  Otherwise we might well wind up inserting set-returning
     * functions into places where they mustn't go, such as quals of higher
     * queries.
     */
@@ -1106,7 +1106,7 @@ is_simple_subquery(Query *subquery)
 
    /*
     * Don't pull up a subquery that has any volatile functions in its
-    * targetlist.  Otherwise we might introduce multiple evaluations of these
+    * targetlist.  Otherwise we might introduce multiple evaluations of these
     * functions, if they get copied to multiple places in the upper query,
     * leading to surprising results.  (Note: the PlaceHolderVar mechanism
     * doesn't quite guarantee single evaluation; else we could pull up anyway
@@ -1492,7 +1492,7 @@ pullup_replace_vars_callback(Var *var,
  *     SELECT ... FROM a LEFT JOIN b ON (a.x = b.y) WHERE b.y IS NULL;
  * If the join clause is strict for b.y, then only null-extended rows could
  * pass the upper WHERE, and we can conclude that what the query is really
- * specifying is an anti-semijoin. We change the join type from JOIN_LEFT
+ * specifying is an anti-semijoin.  We change the join type from JOIN_LEFT
  * to JOIN_ANTI.  The IS NULL clause then becomes redundant, and must be
  * removed to prevent bogus selectivity calculations, but we leave it to
  * distribute_qual_to_rels to get rid of such clauses.
@@ -1732,7 +1732,7 @@ reduce_outer_joins_pass2(Node *jtnode,
        /*
         * See if we can reduce JOIN_LEFT to JOIN_ANTI.  This is the case if
         * the join's own quals are strict for any var that was forced null by
-        * higher qual levels.  NOTE: there are other ways that we could
+        * higher qual levels.  NOTE: there are other ways that we could
         * detect an anti-join, in particular if we were to check whether Vars
         * coming from the RHS must be non-null because of table constraints.
         * That seems complicated and expensive though (in particular, one
index f488c581aa92c8983fefd9a5187ab60419d5d2ba..6aa02d97ecc0833ed30daad25f2eff62a51dfa66 100644 (file)
@@ -72,7 +72,7 @@ canonicalize_qual(Expr *qual)
        return NULL;
 
    /*
-    * Push down NOTs.  We do this only in the top-level boolean expression,
+    * Push down NOTs.  We do this only in the top-level boolean expression,
     * without examining arguments of operators/functions. The main reason for
     * doing this is to expose as much top-level AND/OR structure as we can,
     * so there's no point in descending further.
@@ -158,10 +158,10 @@ pull_ors(List *orlist)
  * find_nots
  *   Traverse the qualification, looking for NOTs to take care of.
  *   For NOT clauses, apply push_nots() to try to push down the NOT.
- *   For AND and OR clause types, simply recurse.  Otherwise stop
+ *   For AND and OR clause types, simply recurse.  Otherwise stop
  *   recursing (we do not worry about structure below the top AND/OR tree).
  *
- * Returns the modified qualification. AND/OR flatness is preserved.
+ * Returns the modified qualification.  AND/OR flatness is preserved.
  */
 static Expr *
 find_nots(Expr *qual)
@@ -303,7 +303,7 @@ push_nots(Expr *qual)
  *
  * This may seem like a fairly useless activity, but it turns out to be
  * applicable to many machine-generated queries, and there are also queries
- * in some of the TPC benchmarks that need it. This was in fact almost the
+ * in some of the TPC benchmarks that need it.  This was in fact almost the
  * sole useful side-effect of the old prepqual code that tried to force
  * the query into canonical AND-of-ORs form: the canonical equivalent of
  *     ((A AND B) OR (A AND C))
@@ -322,7 +322,7 @@ push_nots(Expr *qual)
  *   OR clauses to which the inverse OR distributive law might apply.
  *   Only the top-level AND/OR structure is searched.
  *
- * Returns the modified qualification. AND/OR flatness is preserved.
+ * Returns the modified qualification.  AND/OR flatness is preserved.
  */
 static Expr *
 find_duplicate_ors(Expr *qual)
index 73a158e5d894fa8e0aa8b098fa7510458ae859cb..fd41bce07db1e5a1a463db4a6f67e0c733d65e7b 100644 (file)
@@ -4,7 +4,7 @@
  *   Routines to preprocess the parse tree target list
  *
  * This module takes care of altering the query targetlist as needed for
- * INSERT, UPDATE, and DELETE queries. For INSERT and UPDATE queries,
+ * INSERT, UPDATE, and DELETE queries.  For INSERT and UPDATE queries,
  * the targetlist must contain an entry for each attribute of the target
  * relation in the correct order.  For both UPDATE and DELETE queries,
  * we need a junk targetlist entry holding the CTID attribute --- the
@@ -80,7 +80,7 @@ preprocess_targetlist(PlannerInfo *root, List *tlist)
     * for "update" and "delete" queries, add ctid of the result relation into
     * the target list so that the ctid will propagate through execution and
     * ExecutePlan() will be able to identify the right tuple to replace or
-    * delete.  This extra field is marked "junk" so that it is not stored
+    * delete.  This extra field is marked "junk" so that it is not stored
     * back into the tuple.
     */
    if (command_type == CMD_UPDATE || command_type == CMD_DELETE)
@@ -108,7 +108,7 @@ preprocess_targetlist(PlannerInfo *root, List *tlist)
    }
 
    /*
-    * Add TID targets for rels selected FOR UPDATE/SHARE.  The executor uses
+    * Add TID targets for rels selected FOR UPDATE/SHARE.  The executor uses
     * the TID to know which rows to lock, much as for UPDATE or DELETE.
     */
    if (parse->rowMarks)
@@ -184,7 +184,7 @@ preprocess_targetlist(PlannerInfo *root, List *tlist)
    /*
     * If the query has a RETURNING list, add resjunk entries for any Vars
     * used in RETURNING that belong to other relations.  We need to do this
-    * to make these Vars available for the RETURNING calculation.  Vars that
+    * to make these Vars available for the RETURNING calculation.  Vars that
     * belong to the result rel don't need to be added, because they will be
     * made to refer to the actual heap tuple.
     */
@@ -294,9 +294,9 @@ expand_targetlist(List *tlist, int command_type,
             * When generating a NULL constant for a dropped column, we label
             * it INT4 (any other guaranteed-to-exist datatype would do as
             * well). We can't label it with the dropped column's datatype
-            * since that might not exist anymore.  It does not really matter
+            * since that might not exist anymore.  It does not really matter
             * what we claim the type is, since NULL is NULL --- its
-            * representation is datatype-independent.  This could perhaps
+            * representation is datatype-independent.  This could perhaps
             * confuse code comparing the finished plan to the target
             * relation, however.
             */
@@ -373,7 +373,7 @@ expand_targetlist(List *tlist, int command_type,
    /*
     * The remaining tlist entries should be resjunk; append them all to the
     * end of the new tlist, making sure they have resnos higher than the last
-    * real attribute.  (Note: although the rewriter already did such
+    * real attribute.  (Note: although the rewriter already did such
     * renumbering, we have to do it again here in case we are doing an UPDATE
     * in a table with dropped columns, or an inheritance child table with
     * extra columns.)
index fb72508dff13db9db3bc0691a1e586006c680058..fbcfd37aa79fa9cb7ee8221eafda9a7f8ca148d4 100644 (file)
@@ -6,14 +6,14 @@
  *
  * There are two code paths in the planner for set-operation queries.
  * If a subquery consists entirely of simple UNION ALL operations, it
- * is converted into an "append relation". Otherwise, it is handled
+ * is converted into an "append relation".  Otherwise, it is handled
  * by the general code in this module (plan_set_operations and its
  * subroutines).  There is some support code here for the append-relation
  * case, but most of the heavy lifting for that is done elsewhere,
  * notably in prepjointree.c and allpaths.c.
  *
  * There is also some code here to support planning of queries that use
- * inheritance (SELECT FROM foo*). Inheritance trees are converted into
+ * inheritance (SELECT FROM foo*).  Inheritance trees are converted into
  * append relations, and thenceforth share code with the UNION ALL case.
  *
  *
@@ -539,7 +539,7 @@ generate_nonunion_plan(SetOperationStmt *op, PlannerInfo *root,
     *
     * The tlist for an Append plan isn't important as far as the Append is
     * concerned, but we must make it look real anyway for the benefit of the
-    * next plan level up.  In fact, it has to be real enough that the flag
+    * next plan level up.  In fact, it has to be real enough that the flag
     * column is shown as a variable not a constant, else setrefs.c will get
     * confused.
     */
@@ -1094,7 +1094,7 @@ generate_setop_grouplist(SetOperationStmt *op, List *targetlist)
 /*
  * expand_inherited_tables
  *     Expand each rangetable entry that represents an inheritance set
- *     into an "append relation".  At the conclusion of this process,
+ *     into an "append relation".  At the conclusion of this process,
  *     the "inh" flag is set in all and only those RTEs that are append
  *     relation parents.
  */
@@ -1126,7 +1126,7 @@ expand_inherited_tables(PlannerInfo *root)
  *     Check whether a rangetable entry represents an inheritance set.
  *     If so, add entries for all the child tables to the query's
  *     rangetable, and build AppendRelInfo nodes for all the child tables
- *     and add them to root->append_rel_list.  If not, clear the entry's
+ *     and add them to root->append_rel_list.  If not, clear the entry's
  *     "inh" flag to prevent later code from looking for AppendRelInfos.
  *
  * Note that the original RTE is considered to represent the whole
@@ -1430,7 +1430,7 @@ make_inh_translation_list(Relation oldrelation, Relation newrelation,
  *   parent rel's attribute numbering to the child's.
  *
  * The only surprise here is that we don't translate a parent whole-row
- * reference into a child whole-row reference. That would mean requiring
+ * reference into a child whole-row reference.  That would mean requiring
  * permissions on all child columns, which is overly strict, since the
  * query is really only going to reference the inherited columns.  Instead
  * we set the per-column bits for all inherited columns.
@@ -1736,7 +1736,7 @@ adjust_relid_set(Relids relids, Index oldrelid, Index newrelid)
  *
  * The expressions have already been fixed, but we have to make sure that
  * the target resnos match the child table (they may not, in the case of
- * a column that was added after-the-fact by ALTER TABLE). In some cases
+ * a column that was added after-the-fact by ALTER TABLE).  In some cases
  * this can force us to re-order the tlist to preserve resno ordering.
  * (We do all this work in special cases so that preptlist.c is fast for
  * the typical case.)
index da1ce390c1b0785061a512c53f73fa81babdcda9..bc3f27e18942e80d957ea5851e41351a0360d15d 100644 (file)
@@ -519,7 +519,7 @@ count_agg_clauses_walker(Node *node, AggClauseCounts *counts)
 
        /*
         * If the transition type is pass-by-value then it doesn't add
-        * anything to the required size of the hashtable.  If it is
+        * anything to the required size of the hashtable.  If it is
         * pass-by-reference then we have to add the estimated size of the
         * value itself, plus palloc overhead.
         */
@@ -659,7 +659,7 @@ find_window_functions_walker(Node *node, WindowFuncLists *lists)
  *   Estimate the number of rows in a set result.
  *
  * We use the product of the rowcount estimates of all the functions in