<!DOCTYPE html PUBLIC "-//W3C//DTD HTML 4.01 Transitional//EN">
<html>
<head>
  <meta content="text/html;charset=ISO-8859-1" http-equiv="Content-Type">
</head>
<body bgcolor="#ffffcc" text="#000000">
I am not sure if I should reply as it is not Ubuntu related ...&nbsp; but
here goes .... <b>I hope it is helpful</b> ... <br>
<br>
<br>
If the IT team did their job you should have been given testing
templates/documents to work with. Testing seems to be a massive
under-utilised area and ends up being a (expensive) black hole of
service requests down the track.<br>
<br>
For each problem you find, a standard template (for consistency sake)
would be good. eg<br>
<br>
<b>For a end user test plan</b> ..... (maybe landscape page layout) ...
The fill in fields could be, something like ....<br>
<ul>
  <li>Document Header</li>
  <ul>
    <li>Software product/project</li>
    <li>Date period tested or some referential date<br>
    </li>
    <li>Feature tested or Category of test or Aspect of product tested
or something</li>
    <li>Type of test eg Testing requirements, stress test, correctness
test, etc (See notes below)<br>
    </li>
    <li>Name of person testing</li>
    <li>Some reference identifier for this test document (for
communication purposes)</li>
  </ul>
  <li>Problems found (one or more) maybe tabular format on a landscape
page layout.</li>
  <ul>
    <li>Date test started</li>
    <li>Date test ended</li>
    <li>Description of test</li>
    <li>Test inputs</li>
    <li>Expected result</li>
    <li>Actual result</li>
    <li>Priority</li>
    <li>Sign off date (date when problem was corrected)</li>
    <li>Reference link/s to follow up testing / related
testing/problems.<br>
    </li>
    <li>Comments</li>
  </ul>
</ul>
<br>
Some Notes:<br>
<ul>
  <li><b>Programmers need to try and replicate your problem</b>. Screen
shots are good and if you have the software, screen videos can be very
helpful. Was the network slow at the time of testing? Did you have
other programs running? etc ...<br>
  </li>
  <li>Testing should have started from the very beginning of the
project. But late is better than not at all. Some examples of types of
tests ....<br>
  </li>
  <ul>
    <li>Requirements testing - Does the software actually do what the
end users need it to do. Are there features missing that you need. Are
there bells and whistles included that you don't need. etc...</li>
    <li>Correctness testing - eg expected and actual results ...<br>
    </li>
    <li>Stress testing - Does the software perform under pressure ...
eg lots of data, network/Internet load issues (including bottlenecks),
Does it handle more than one person accessing the same data at once
properly, etc ...<br>
    </li>
    <li>Error handling - When an error happens does the software give a
friendly error message or are you and the programmers guessing what
happens.</li>
    <li>Robust - eg It doesn't fall over every 3 days.</li>
    <li>Timely - eg You are not waiting half an hour for a report to be
produced (probably part of stress testing)</li>
    <li>Usability - Is it easy to use? Is it intuitive? Simple layout
as possible? Easy to navigate? User happiness factor? Does the software
actually make it easier / help get more work done than the last system
(Some exceptions to this might be the new software was bought in to
handle new elements eg longer customer codes etc...) . etc ...</li>
    <li>Security issues/risks</li>
    <li>Migration issues - If you have to migrate data from old system
to new system .... all the issues involved ... eg data integrity, roll
back procedures, etc... (Programmers job but it affects you if it goes
wrong)<br>
    </li>
  </ul>
  <li>Other notes<br>
  </li>
  <ul>
    <li>Priority and risk assessment work together. The&nbsp; consequence of
the risk affects the priority.</li>
    <li>Fixing problems can (and do) cause follow on problems or show
up other problems. When re-testing consider more than just the isolated
incident.</li>
    <li>If it is an internal product, priority is important. With time,
finances, resources as a reality check, some issues may get delayed
(possibly forever). Be honest with priority.</li>
    <li>Internal programming versus outsourced software. <br>
    </li>
    <ul>
      <li>If the programming team is internal to your company, then
usually the programmers are fairly helpful and communication can be a
bit more relaxed. <br>
      </li>
      <li>If the work is outsourced, then make sure the problems are
written, clear and understandable. Keep written communication of any
important (even a follow up email to a phone conversation). Do not be
pressured into signing off on anything otherwise face being stuck with
it. Once they have your money, it is "Catch me if you can".<br>
      </li>
    </ul>
  </ul>
</ul>
The review <br>
<ul>
  <li>Would summarise your findings and include the filled out testing
plan documents. <br>
  </li>
  <li>Would group issues together, etc ...</li>
  <li>Make recommendations</li>
  <li>Possibly include a priority schedule</li>
  <li>Possibly include risk assessment from a users view point. eg
Maybe your product is getting rolled out in increments. And if these
problems don't get fixed by this date or these features are not ready
by this date ... How it impacts us, etc...<br>
  </li>
  <li>If there are a number of end users testing the software product
then a review template should be set up.</li>
  <li>etc ...<br>
  </li>
</ul>
<br>
<br>
<blockquote><a class="moz-txt-link-freetext" href="http://en.wikipedia.org/wiki/Software_testing">http://en.wikipedia.org/wiki/Software_testing</a><br>
</blockquote>
<br>
Regards<br>
Chris<br>
<br>
<br>
<br>
Sebastian wrote:
<blockquote
 cite="midb8842d40711181704g4fec40efs5c5649a78c3b3ca9@mail.gmail.com"
 type="cite">
  <pre wrap="">Hi all,
I know this might be slightly OT, but I thought that OS people are in
frequent contact with software and reviews of it.

So here the thing, at work we got a software tailored to our needs.
Written for us only :-) I am in the process of working with the
software and took lots of notes during my testing.
The notes contain errors, interface corrections, feature requests and
changes, and so on.
Things like price, system requirements, beauty of the interface are
not really what I need to concentrate on.

As I am not a programmer I was wondering if there is a HowTo about
writing such a review, what else do I have to test, check. By now I
have the feeling I have to write to, one for my boss and one for the
programmer... :-|
How should I structure my review, errors first?
Which is the best way to document and/or report such errors or wanted changes?

I had a look but could not come up with many useful sites (e.g.
<a class="moz-txt-link-freetext" href="http://www.ehow.com/how_2091728_write-educational-software-review.html">http://www.ehow.com/how_2091728_write-educational-software-review.html</a>)

Any thought are appreciated!

Cheers,

Sebastian

  </pre>
</blockquote>
<br>
</body>
</html>